人工智能的安全进展(人工智能安全大赛收官)
16日,以“共筑AI安全 ?安享智能未来”为主题的人工智能安全大赛收官,图为现场展示真实攻防场景 林依 供图
中新网北京9月17日电 (林依 张素)试想一下,有人将一张“神奇贴纸”放置在面部,就可以使人脸识别门禁系统“误认”是你,从而轻易打开大门;同样是这张“神奇贴纸”,把它放置在眼镜上,就可以1秒解锁你的手机人脸识别……
这并非科幻大片想象,而是一场人工智能安全大赛颁奖典礼现场展示的真实攻防场景。16日,以“共筑AI安全 安享智能未来”为主题的人工智能安全大赛在北京收官。
本次大赛由国家工业信息安全发展研究中心、清华大学人工智能研究院和北京瑞莱智慧科技有限公司等单位联合主办,旨在推动人工智能攻防技术创新、实战演练、场景挖掘和人才培养。
据知,本届大赛共吸引来自全国范围内70多所高校、科研院所、企业机构的超过400支团队、共计600余名选手参赛。经过三个月角逐,最终,上海交通大学联合战队“AreYouFake”与北京交通大学战队“BJTU-ADaM”分别摘得深度伪造安全与自动驾驶安全赛道桂冠,北京理工大学战队“DeepDream”与建信金科战队“Tian Quan&LianYi”共同位列人脸识别赛道第一名。
在同期举办的主题论坛上,多位院士专家、行业领袖等共同探讨如何在未来智能的全新战场打赢技术攻防之战。与会者们表示,重视人工智能安全体系建设,既是当务之急也是长远考虑,需加快促进人工智能安全领域关键技术研究与攻防实践。
人工智能对抗攻防包括对抗样本、神经网络后门、模型隐私问题等多方面技术。模型有错误就需要及时修复,中国科学院信息安全国家重点实验室副主任陈恺提出“神经网络手术刀”的方法,即通过定位引发错误的神经元,进行精准“微创”修复。
16日,《人工智能算力基础设施安全发展白皮书》在北京发布 林依 供图
开放环境下的人工智能系统面临诸多安全挑战,如何解决通用人工智能算法全周期的安全保障问题成为重中之重。北京航空航天大学软件开发环境国家重点实验室副主任刘祥龙表示,从技术上来看应形成从安全性测试到安全性分析与安全性加固的完整技术手段,最终形成标准化的测试流程。
工商银行金融研究院安全攻防实验室主管专家苏建明表示,人工智能安全治理需要广泛协作和开放创新,需加强政府、学术机构、企业等产业各参与方的互动合作,建立积极的生态规则。
“人工智能技术风险发生的范围正随着应用场景的日趋广泛而逐步扩大,风险发生的可能性也随着其应用频次的增长而持续提高。”北京瑞莱智慧科技有限公司首席执行官田天说,人工智能当前的安全风险主要可以从“人”与“系统”这两个视角来剖析。
田天进一步分析说,“神奇贴纸”其实就是“对抗样本攻击”,通过在输入数据中添加扰动,使得系统作出错误判断。而在人工智能的全生命周期,不仅存在算法层面的安全性问题,算力作为人工智能发展的重要基础设施,也面临着诸多风险,推动人工智能算力基础设施安全发展具有重要意义。
值得一提的是,由国家工业信息安全发展研究中心牵头,联合华为技术有限公司和北京瑞莱智慧科技有限公司共同撰写的《人工智能算力基础设施安全发展白皮书》同期发布。撰写团队围绕人工智能算力基础设施安全发展的意义、内涵与体系架构、安全管理现状、发展建议等方面展开深入研究。(完)
,免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com