近日,360集团首席安全官杜跃进受邀参加在苏州举办的2020全球人工智能产品应用博览会(AIExpo2020),并作为科技部授予的15家国家新一代人工智能开放创新平台中,网络安全行业唯一平台的负责人,在开放创新平台高峰论坛上做了“安全大脑开放创新平台”的主题分享。他指出,人工智能安全风险超乎想象,目前国内人工智能安全领域的发展不容乐观。为应对人工智能带来的安全挑战,360将利用自身在安全大数据、攻防专家团队等方面的优势,融合人工智能与安全,与合作伙伴们一起,打造国家级开放创新平台。
面对2020年的诸多挑战,人工智能迎来了应用落地发展的时代契机。人工智能不仅是新一轮产业变革的核心驱动力量,更是新一轮科技竞赛的制高点。2019年8月,科技部在世界人工智能大会上颁布了十大“国家新一代人工智能开放创新平台”,将依托360集团建设安全大脑国家新一代人工智能开放创新平台。此次入选也标志着360成为人工智能安全领域领军企业,推动网络安全行业发展的领导力量。
360集团首席安全官杜跃进在分享中指出,数字化时代,人工智能是核心驱动力。但人工智能在赋能各产业的同时,也会带来新的安全治理挑战。人工智能的安全风险其实超出很多人的想象,“智能”在好人和坏人看来有完全不同的视角。
人工智能本身的安全威胁,杜跃进将其总结为“七宗罪”,从最底层的硬件传感器、芯片的设计到软件本身,包括硬件、软件、协议、数据、算法、应用动机、伦理等七大方面,都面临安全风险。一是硬件层面。很多人工智能元器件在物理层面缺乏安全保障,哪怕只有一段线路没有进行电磁屏蔽,也给物理干扰留下机会。二是软件层面。任何软件都有漏洞,它们可以被攻击者利用,来实现代码执行、拒绝服务攻击、控制流劫持、信息泄露等目标。三是协议层面。很多专用通信协议设计缺乏安全考虑。四是数据层面。大数据时代有一个“黑箱悖论”,人工智能离不开数据,但数据本身有可能被污染,这样的人工智能就好像被“投毒”。五是业务层面,算法本身可以被欺骗、误导,当人工智能越来越多用于控制相关业务时,可能会产生致命性影响。六是应用动机层面。坏人有可能更早、更深地看到人工智能带来的机会。如今,除了人工智能,在生物科技等很多前沿技术领域都有这样的倾向,值得警惕。七是机制设计层面。模式设计考虑不充分,将导致事与愿违,可能产生非常严重的后果。
他强调,在坏人手中的人工智能,可以高效的用于安全攻击,会对安全防护带来更大的挑战。但同时,人工智能也可以用于安全问题的解决,目前在恶意代码检测、漏洞挖掘、恶意域名检测等领域已经有比较广泛的应用。
需要注意的是,目前人工智能在安全领域的创新和应用落地存在很大的差距,人工智能安全研究创新环境缺失,同时自身也缺乏系统化的安全评测。因此,360目前正为构建人工智能开源软硬件技术平台和智能安全检测平台提供技术储备,包括建立开放协同的人工智能科技创新体系,以及促进网络安全产业的升级。360安全大脑开放创新平台的目标是通过建设共性技术平台、开放安全大数据、人工智能安全攻防资源库等,建立开放服务机制,为产业链和创新链上下游单位提供开放资源,促进人工智能行业持续、健康、快速发展。
数字化时代,安全已经被重新定义。物理空间和虚拟空间已经打通,网络攻击不区分虚拟还是物理空间,贯穿政务、国防、工业、经济、社会等场景。漏洞无处不在,未来数以百亿计的智能设备成为攻击点,响应速度要求越来越快,靠人力已无法及时有效处理。在第八届互联网安全大会上,360集团董事长兼CEO周鸿祎也提出,要构建以安全大脑为核心的新一代安全能力新框架,整体提升国家在数字化时代应对安全挑战的能力。
演讲的最后,杜跃进指出,360将通过安全大脑赋能行业,解决高级别安全对抗的问题。同时,也将通过工业互联网安全研究院,结合人工智能解决工业互联网安全问题。未来,360将和合作伙伴们一起,打造“人工智能+安全”的国家级开放创新平台,带动中国人工智能行业开放创新,为行业赋能。