【学术会议征稿-第二届生成式人工智能与信息安全学术会议(GAIIS 2025)】人工智能与信息安全的魅力
重要信息
时间:2025年2月21日-23日
地点:中国杭州
官网:http://www.ic-gaiis.org
简介
2025年第二届生成式人工智能与信息安全将于 2025年2月21日-23日在中国杭州举行。主要围绕“生成式人工智能与信息安全”的最新研究展开,紧密聚焦AI的热点和难点问题,深入剖析信息安全核心技术。
生成式人工智能与信息安全的关系主要体现在以下几个方面:
-
数据安全:生成式人工智能通常需要大量的训练数据,这些数据可能包含敏感信息。确保这些数据在收集、存储和传输过程中的安全是关键。
-
知识产权保护:生成式人工智能创作的作品可能侵犯他人的知识产权。因此,对人工智能生成内容的版权和知识产权保护需要明确规范。
-
隐私保护:人工智能可能用于分析个人数据,采集过程中需要遵循隐私保护原则,防止数据泄露。
-
防范恶意利用:生成式人工智能也可能被用于生成虚假信息、网络攻击等恶意行为,需要采取措施防范。
主席
Prof. Dong Xu, University of Missouri-Columbia, USA (AAAS Fellow, AIMBE Fellow) (H-index: 84)
姚信威教授,浙江工业大学
程序委员会主席
吴小俊教授,江南大学 (H-index: 64)
Prof. Azlan Mohd Zain, Universiti Teknologi Malaysia, Malaysia (H-index: 38)
陈志奎教授,大连理工大学 (H-index: 34)
Prof. J.M.Corchado, University of Salamanca, Spain (H-index: 112)
出版主席
Prof. Nagaraja G.S, RV College of Engineering, India(IEEE Senior Member)
宣传主席
陈雷 副教授,山东大学
| 张磊教授,重庆大学(国家级青年人才,IEEE Senior Member,H-index:71) 张磊,重庆大学微电子与通信工程学院教授,博士生导师,国家级高层次青年人才,人社部第三批香江学者计划入选者,重庆市杰出青年科学基金获得者,重庆市高层次人才特殊支持计划入选者,入选斯坦福大学发布的全球前2%顶尖科学家“终身科学影响力”、“年度科学影响力”双榜单。主要研究多模态人工智能、计算机视觉、鲁棒机器学习、大模型高效迁移、视觉-语言大模型等。承担了国家自然科学基金委等项目课题20余项,发表学术论文160余篇,ESI全球前1%高被引论文10篇,出版学术专著1部,谷歌学术显示引用过万次,发明专利近20项。获得吴文俊人工智能自然科学奖、吴文俊人工智能优秀青年奖等奖项。目前是IEEE 高级会员、中国计算机学会(CCF)杰出会员,担任国内外多个期刊编委 |
Prof. Azlan Mohd Zain, Universiti Teknologi Malaysia, Malaysia(H-index: 38) Azlan Mohd Zain目前是马来西亚理工大学计算学院工程学院的教授。他也是马来西亚理工大学大数据研究中心的主任。作为一名学术人员,他成功指导了25多名研究生,并获得了20多项研究资助,以支持研究生。他发表了100多篇研究论文。他曾受邀在五次以上的国际会议上担任主旨发言人,在多个委员会任职,并在三种国际期刊的编委会任职。 | |
胡亮教授,同济大学 胡亮,同济大学计算机科学与技术学院,教授,博导。上海海外 高层次人才,国家海 外 高层次青年人才。研究领域包括机器学习、推荐系统、人机协同、数据科学、隐私计算,以及跨学科交叉融合的新一代智能技术。发表超过100篇高水平学术论文,包括WWW、IJCAI、AAAI、ICDM、TOIS、TKDE、NeurIPS、ICML等。在众多高水平人工智能国际会议(IJCAI、AAAI、ICDM、CIKM、KDD、CVPR等)担任程序委员会委员,并担任十余个著名人工智能和数据科学相关的国际期刊的审稿人,包括ACM CSUR、IEEE TKDE、ACM TOIS、IEEE TPAMI等。以联席主席身份在IEEE ICDM、DSAA等多个著名国际学术会议上组织了关于人工智能、神经网络和推荐系统的多个研讨会和特别专题在IJCAI、AAAI、KDD、SIGIR、ICDM、WWW等多个顶级人工智能及数据科学会议上,进行了近10个关于智能推荐系统的专题报告(Tutorial)。主持和参与多项国家级科研项目。 |
期刊名称:Human-Centric Intelligent Systems (HCIN)
期刊简介:Human-Centric Intelligent Systems(HCIN) 是一本完全开放获取的国际期刊,致力于传播关于以人为本的智能系统的最新研究成果,涵盖其所有理论和实践应用,同时提供关于以人为本计算和分析的前沿理论与算法见解。
范围:以人为本的 AI;以人为本的数据和管理;信息传播和建模;扩散源识别和网络分析;社会影响力分析;社区检测和动态、虚假信息和错误信息检测;用户建模、个性化和推荐;负责任的 AI、公平性和可解释性。
主题
深度学习
自然语言处理
算法应用
计算机视觉
视觉识别
模式识别
强化学习
生成对抗网络
生成建模技术
语言预训练
视觉预训练
联合预训练
自回归模型
生成式人工智能的合法使用
信息和隐私保护
入侵检测技术
安全检测和监控技术
解密和加密技术
其他信息见官网
名词解释
生成式人工智能(Generative AI)与信息安全之间的关系和影响是当前技术领域一个热点话题。生成式AI主要是指能够生成新的数据(如文本、图像、音频等)的人工智能技术,最著名的例子包括像我这样的语言模型(如GPT系列)和图像生成模型(如DALL·E)。这些技术有很多应用场景,包括内容创作、数据增强、自动化等,但它们也带来了新的信息安全挑战和风险。
1. 生成式AI的潜在安全风险
生成式AI可能带来一些信息安全问题,主要包括:
- 假新闻和虚假信息:生成式AI可以用来自动生成文本、文章或社交媒体内容,这些内容可能被用来传播虚假信息、政治宣传或误导性新闻,从而对公众舆论、政治稳定或社会信任构成威胁。
- 深度伪造(Deepfake):生成式AI可以用来创造高度逼真的虚假图像、视频或声音。例如,AI可以合成某个名人的假视频,甚至模仿其声音。这些技术可能被用于诈骗、勒索、恶意攻击等。
- 网络钓鱼攻击:生成式AI可以被用来创建看起来非常真实的钓鱼邮件或假冒网站,诱使受害者透露敏感信息(如银行账户、密码等)。
- 自动化恶意代码生成:黑客可能利用生成式AI自动编写恶意代码或攻击脚本,从而降低攻击的难度并提高攻击效率。这可能导致更多的零日漏洞被利用,甚至出现更复杂、难以检测的攻击方式。
2. 生成式AI对信息安全的积极影响
尽管存在风险,生成式AI也可以在信息安全领域发挥积极作用:
- 增强检测和防御:生成式AI可以帮助创建更强大的入侵检测系统(IDS)和防火墙。例如,AI可以生成模拟的攻击流量,用于测试网络防御系统的漏洞,提升对新型攻击的防范能力。
- 自动化安全报告生成:生成式AI可以自动化生成安全报告和漏洞分析,帮助安全团队快速识别系统中的潜在问题,减少人工工作量,提高响应速度。
- 恶意代码识别:通过生成与已知恶意软件相似的代码,AI可以帮助开发出更强大的反病毒软件或安全工具,增强对新型恶意软件的识别能力。
3. 信息安全的挑战
由于生成式AI的快速发展,信息安全领域需要重新审视现有的防护措施:
- 合成内容的识别:随着深度伪造技术的进步,如何有效识别生成内容成为一个重要挑战。例如,如何区分真实的图像和AI生成的图像,或如何检测AI生成的虚假文本。
- 隐私问题:生成式AI可能在生成数据时泄露敏感信息。例如,语言模型可能会不小心生成包含私人信息(如姓名、地址、电话等)的文本,这对数据隐私构成风险。
- 技术滥用:与所有新技术一样,生成式AI也有被滥用的风险。需要制定新的法律、道德标准和技术规范,以确保生成式AI不会对社会造成负面影响。
4. 应对策略
为了应对生成式AI带来的信息安全问题,可以采取一些应对策略:
- 加强法规和政策:政府和监管机构需要出台更完善的法律和政策来应对生成式AI带来的新风险,制定关于AI生成内容的透明度要求,防止恶意使用。
- 提升AI安全意识:企业和用户需要增强对生成式AI潜在风险的认识,提高防范意识,加强信息安全教育,识别钓鱼攻击、假新闻等。
- 技术对抗手段:研发针对生成式AI技术的防护技术,例如深度伪造检测、自动化内容验证工具等,帮助组织和用户抵御AI生成的虚假信息和恶意内容。
总之,生成式AI与信息安全密切相关,既带来了新的安全挑战,也提供了新的安全工具和解决方案。随着技术的进一步发展,如何平衡创新与风险将是一个长期且复杂的课题。