人机“心电感应”!人类可以预测神经网络的错误分类 | 论文
人类能猜出来神经网络是怎么想的吗?
铜灵 发自 凹非寺
量子位 出品 | 公众号 QbitAI
对抗图像是神经网络的顽敌,比如让AI错误检测路标信息、把乌龟认成步枪,都曾是对抗图像的“恶搞”。
当千辛万苦调试的神经网络遇到了对抗图像,一场你死我活的尊严战就开始了。
或许,人类可以理解并帮助神经网络进行判断。
约翰霍普金斯大学发表的最新论文Humans can decipher adversarial images显示,人类可以直观理解神经网络犯错的逻辑,并预测机器的错误分类。
目前,这篇论文已经被Nature子刊Nature Communications接收。
人机“心电感应”
在这个项目中,研究人员向人类志愿者展示了一些对抗性图片的图集,让人类判断神经网络会将这些图片认成什么。
这个图集本来是用来检测机器学习模型用的,里面的图像包含了一些微小的、不易被机器察觉的干扰。这48张显著对抗攻击产生的图像,都曾经击败过AlexNet和Inception V3等常用图像识别模型。
人类能猜出来神经网络是怎么想的吗?
这是一项庞大的工程,研究人员找来了1800名人类志愿者参与这个项目。他们将志愿者分成了8组,包括7个200名志愿者组成的组和1个400名志愿者组成的组,共进行7组实验。
为了保证参与者之间的多样性,每一组志愿者分别负责一组实验。
实验开始前,研究人员怎么也没料到,人类的直觉与神经网络的选择竟然可以这么相似。
实验开始
第一关,用多余的图像标签迷惑神经网络。
研究人员让人类依次识别48张图像,每一张图像给出两个标签,一个是机器为该图像选择的,另一个是从其他47张图像中随机抽取的。人类需要猜测,到底哪一个才是机器给出的标签。
结果发现,人类选择的图片标签中有74%与机器选择的标签一致,98%的人更倾向于选择与机器相同的标签,远高于50%随机选择概率。初步实验表明,人类的选择与机器有着惊人的普遍性。
人类与机器的思维有多相似?研究人员继续进行了下一场实验。
第二关,找出机器的首选与次选。
在这场实验中,研究人员要求人类为每张图像排序。他们用AlexNet模型给每张图像的首选标签和次选标签给人类,让人类猜测哪些是神经网络的首选。
结果依旧证明了实验一的结论,91%的选择与机器的首选一致,人类似乎真的能猜透神经网络的心。
研究人员加大难度,继续进行了第三场实验,多向分类。
这一次,人类志愿者需要处理的标签数量一下子从2个增加到48个:研究人员给定一张图片,让人类在48个可能的标签中挑选最符合图片内容的标签。
人类的判断与机器分类再一次重合,90%的人类与机器的首选一致。这些结果表明,人类与机器的错误分类具有一致性。
研究还在继续,难度仍在加大。
第四场实验看起来似乎有些“玄学”,判断雪花状电视图像中是什么。
比如下图这些类似电视没信号时出现雪花点:
你能猜出哪张里面包含一只知更鸟么?
这些图像看起来只是色彩块的集合,让人摸不到什么规律。仔细看会发现,每张图中央都会有一块色彩密集的区域,但是也看不出是什么。
但是,依然有80%的人类志愿者与机器达成一致。并且,人类为75%的图像选择的首选标签也是机器的首选图像。
此外,研究人员还进行了数字干扰实验、自然图像和局部扰动实验、3D物体实验。
7组实验下来,研究人员断定:人类的思维直觉与机器的相似性极高,因此人类可以预测机器会不会进行错误分类,进而预测、修正机器的判断逻辑。
黑盒,看起来也没有那么不可捉摸了。
传送门
论文Humans can decipher adversarial images地址:
https://www.nature.com/articles/s41467-019-08931-6#Sec1
VentureBeat报道:
Humans can predict how machines (mis)classify adversarial images
— 完 —
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ’ᴗ’ ի 追踪AI技术和产品新动态
- 微软公布19财年财报:净利润增长22%,云计算首超个人计算业务2019-07-19
- 腾讯云推出物联网边缘计算平台,具备五大特点,想攻克物联网落地难题2019-08-28
- DeepMind医疗业务几经动荡,现在团队并入Google2019-09-20
- 首例基因编辑干细胞治疗艾滋病:北大邓宏魁参与,达最佳治疗效果2019-09-14