江苏久益电力设备有限公司
免费会员

算法界上演“猫鼠游戏”连续剧

时间:2019-7-8阅读:633
分享:

医疗手术、无人驾驶、围棋对弈、随手可用的翻译……近十年来,人工智能(AI)取得了巨大进步。而这,要得益于人工神经网络的发展。

这一神经网络的模式,效仿的是我们人类的大脑,在大规模应用时,也被称为深度学习,其能够自己发现数据的模式,而无需明确指令。

深度学习虽然可以在大数据训练中学到正确的工作方法,却也很容易受到恶意干扰。攻击者们通常会通过输入恶意数据来欺骗深度学习模型,导致其出现严重故障。

面对恶意算法欺骗,人工智能如何反击?英国《自然》网络版日前的报道称,现在,计算机科学家正在多方寻找对策,以便让人工智能更安全。

AI:我因“学习”而受伤

“学习”,是人工智能的核心,也是使计算机具有智能的根本途径。

深度学习的主旨,是让计算机去模拟或实现人类的学习行为,以获取新的知识或技能,并重新组织已有的知识结构,使之不断改善自身的性能。

但同时,深度学习算法的不可预测性,使其需要不断挖掘。

对于家庭和个人手机来说,虚拟智能化助理的应用越普遍,恶意攻击就越可能随时发生。有些信息眼看、耳听都没有问题,却能“暗藏杀机”——隐藏着劫持设备的指令。

举例来说,人工智能“看”图像的模式,和人类的肉眼大不一样。通过微妙改变图像的某些部分,再输入后的图片即使肉眼看来一模一样,计算机看起来却大不相同。这就叫对抗性示例。

除了图像,声音也会有同样的问题,只要修改了一个语音片段,人工智能就可能修改成*不同的语音指令。

无需隐身,也能抓住攻击者

不过,在不久前召开的学习表征会议(ICLR)上,美国伊利诺伊大学香槟分校的计算机科学家拿出了一种对抗攻击的方法。

他们编写的算法可以转录完整的音频以及单个片段。如果单个片段转录出来和完整音频中的对应部分不*匹配,那么算法会立即用一面小红旗做出标记,表明音频样本可能已遭攻击。

会员登录

×

请输入账号

请输入密码

=

请输验证码

收藏该商铺

X
该信息已收藏!
标签:
保存成功

(空格分隔,最多3个,单个标签最多10个字符)

常用:

提示

X
您的留言已提交成功!我们将在第一时间回复您~
在线留言