周鸿祎:在“大安全”时代,人工智能本身就存在安全问题

2018-05-16 15:30:51 来源:陕西消费网

 周鸿祎:在“大安全”时代,人工智能本身就存在安全问题

无人值守的汽车、无人值守的高铁、无人机……随着人工智能技术的发展,越来越多的无人值守系统会出现在社会生活的方方面面,以更智能的姿态解放人类的双手。但是,这些无人值守系统真的足够智能与安全吗?在5月16日召开的第二届世界智能大会上,360集团董事长兼CEO周鸿祎告诉大家,人工智能本身就存在安全问题,我们必须要审慎以待。

 

360集团董事长兼CEO在第二届世界智能大会上演讲

周鸿祎认为人工智能自身存在的问题分为以下几个方面。

首先是上面我们提到的无人值守系统,周鸿祎认为它们都有安全漏洞的风险,一旦被网络劫持,将带来严重的安全问题。

比如,过去的武器像机枪是控制在战士手里的,由人来判断和扣动扳机。一旦在军事上越来越多地引入人工智能技术,假如未来用人工智能做成智能机枪以后,它就可以自己发现目标和自动射击。如果这样的系统哪天不小心被黑客控制了,他就可以远程来控制武器射击,滥杀无辜,造成的后果非常可怕。

第二,人工智能所依赖的传感器、训练数据和使用的开源软件等都可能存在安全隐患,比如传感器可以被干扰,系统自身也可以被欺骗或入侵。

周鸿祎举例称,360安全团队就曾在测试中利用超声波干扰技术成功实现对特斯拉的欺骗,,让它相信前方的障碍物并不存在。360安全团队也因为上报了这个漏洞,进入了特斯拉名人堂。”。

再比如,近年来出现的针对智能设备的海豚音攻击行为,黑客通过产生一些无意义的超声波信号,虽然人无法听见,却可以被手机、智能家居以及智能汽车等智能设备的语音控制系统接收到。黑客再利用麦克风的硬件漏洞进行自动解调恢复出原始的语音命令,就可以悄悄开启智能手机、智能家居、智能汽车的语音助手,然后随意拨打电话、发短信、视频通话,或者将设备切换到飞行模式等操作。

第三,人工智能还有一个问题,就是现在的人工智能还只是一种拼命用大量数据训练出来的概率判断系统,远远称不上完善。

周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。

前段时间,Uber公司改装后的自动驾驶测试车在美国撞死了一位女士,充分表明今天的人工智能技术并不是一个完备体系。Uber的那辆汽车当时处于光线很暗的环境中,那位女士穿了件黑色衣服,在这种很复杂的情况下,汽车的人工智能没有做出任何判断,甚至没有减速,最终酿成了悲剧。

第四,现在的人工智能系统大多使用开源软件和架构,这里面的安全漏洞很多。

人工智能都是靠软件代码实现的,是经过数据训练的运行逻辑,而且现在规模越来越庞大。大家都在用的智能手机,代码已经超过一亿行,更不用说智慧城市、核电站等复杂系统了。这些代码都是人写出来的,只要是人写出来的就可能存在漏洞。

“过去几年,我们的人工智能安全团队对目前最流行的深度学习框架进行了一些研究,发现了几十个开源系统的安全漏洞。”周鸿祎说道。

在去年的中国互联网安全大会上,360现场演示了全球首个通过攻击深度学习应用来进行远程控制的实例,对大家的触动很大,也引起了许多人对人工智能自身安全问题的担忧。

周鸿祎在演讲中强调,智能技术的应用将打通虚拟世界和现实世界的界限,对网络空间的攻击可以直接穿透虚拟空间,映射到物理空间安全,产生物理损失和物理伤害。因此,周鸿祎认为网络安全威胁已经从网络空间,扩展到国家安全、国防安全、关键基础设施安全、社会安全、城市安全,乃至人身安全。可以说,随着智能经济发展,网络安全已经进入了“大安全”时代。当人工智能、智能经济这些热门词汇开始受到关注时,我们更要居安思危,共同守护网络空间与物理世界的安全。

[责任编辑:田园]