Hinton、吴恩达、LeCun 通通被点名,马斯克躺枪 | 马库斯连击批AI
赖可 发自 凹非寺
量子位 报道 | 公众号 QbitAI
“著名AI批评家“马库斯又开批了。
Geoff HintonHinton、吴恩达、LeCun、马斯克通通被点名。
他说,Hinton关于深度学习的说法可能会导致放射科医生紧缺;
吴恩达预测AI能解决开放式问题是错的;
LeCun说强人工智能会出现到现在还八字没一撇;
不止这些,他还说《经济学人》误导报道、IBM沃森过度承诺……
他举这些例子,都为了印证自己的观点:AI宣传中存在大量的信息误导。他认为,这怪研究者和记者,他们都喜欢强调突破性,却不谈论局限性。
量子位把长文重新梳理,看清老马这回到底在批些啥。
Hinton导致放射科医生缺乏?
先来弄清楚马库斯是怎么批评深度学习教父Geoff Hinton的。为什么说是他要对放射科医生的紧缺负责?
是这样的,2016年,Hinton在论坛上打了一个比喻.
放射科医生就像”已经在悬崖边缘的狼,却还没有回头看,没有发现下面已经没有陆地了”。
Hinton建议,现在就要停止培养放射科医生。
两年过去了,马斯库的结论是:Hinton的话惊吓了很多放射科系,结果可能是负面的;目前世界上很多地方都缺放射科医生。
Hinton的话和放射科医师缺乏,这两者之间究竟有啥关系呢。一时之间还真的有点难弄明白。
不过我们可以回到当时现场,看一看Hinton究竟是在什么样的情境下说了怎样的话
在2016年机器学习和智能市场的论坛上,Hinton被提问:你认为最激动人心的事情会是什么?
他就说了上面的那个比方,并且说,
完全显而易见的是,五年内,深度学习能够比放射科医生做的更好,因为它可以变得更有经验。也许是十年内。
AI取代放射科医师的争议,量子位以前写过文章:吴恩达被diss了
AI医生难实现
至于AI医疗,马库斯还批评了IBM沃森在2014年过度承诺,如今交付不足。
IEEE SPectrum的相关报道指出,在2014年,沃森公司宣布了要研发AI医生的目标。公司承诺,首个健康护理的商业服务,将在18到24个月实现。
而在2016年,和MD安德森癌症研究所等机构合作的项目却受挫。提供的服务被认为不可靠。
沃森的一些专家也意识AI在医疗方面的局限性。比如其卫生保健和生命科学研究副总裁Ajay Royyuru,他表示
诊断不是要去的地方,这是专家们做得很好的事情。这是一项艰巨的任务,无论您用AI做得如何,它都不会取代专家。
前不久,在北大医学院举行的,医生和AI工作人员共同出席的“智慧医疗,潜力与挑战论坛上”,双方对于AI在医疗中扮演什么样的角色也做了类似的讨论。
腾讯优图实验室医疗AI总监郑冶枫表示,他们目前的关注的场景大多还是AI辅助医生。
医生培训非常重要,AI是一个新的工具出来,不可能不培训直接用。医生需要用个半年一年,摸透它的脾气了,什么情况下,会更准确,而不是简单的把AI的结果加一点信息,需要一个熟悉的过程。
而在使用流程上,他们也会做相关设置,避免医生过度依赖AI。
有时候,在具体场景中,比如当天医生就直接把AI的结果交上去了,这肯定是不行的。我们在流程上是可以做的,医生必须读一遍片子,读完了,我再给出我的答案。而不是我直接给出答案,你在这上面改,这个容易被医生用偏。这样可以避免一些误用。
而清华大学临床医学院院长董家鸿则提出了“人机协同”的视角,
通过人机协同的机制,看协同后产生的效果。基层医生,给了他AI,然后看人机协同之后的诊断率是不是超过原来的水平。
任何一个高明的医生的诊断也不可能完全正确,有一个容许的出错率。在这样的条件下,再去评价AI在基层医疗的效用和价值。
批评NLP,怼吴恩达、LeCun
马库斯的批评还集中在NLP方面。首当其冲当然是Hinton,他4年前说过的关于自然语言的话,也被拿出来批评了
2015年,Hinton在接受卫报时曾表示:谷歌正处于开发出有逻辑能力,能自然对话,甚至调情的算法的边缘
4年后,马库斯说
我们距离能够进行自然对话且无需人工干预,确保连贯性的机器还有很长的路要走,没有现成的系统能可靠地推理物理世界。
(反正你的总结都很对)
新旧搭配,他还举了一个最近媒体误导的例子。怎么误导的呢?
是这样,《经济学人》最近对open AI的句子生成系统GPT-2进行了一次主题为2020年的采访,并将人机对话刊登出来,标明了”未经编辑”,给人的感觉是,AI已经可以进行如此连贯自然的对话了,甚至显出了幽默感。
实际上,这种效果是编辑对文本进行编辑和过滤的最终效果,AI对每一个问题给出五个回答,人工从中进行筛选连缀成文。
(有时候,一个细节对理解事实很关键。所以希望大家,以后对所有认真做事实和细节核查的媒体多一丢丢尊重啦~)
马库斯还批评了吴恩达、LeCun 对于AI的能力增长做了过于乐观的判断,比如吴恩达曾经认为AI未来能够解决开放式问题,LeCun 说强人工智能会很快出现。
恩……还有,这种批评名场面怎么能少了马斯克。
他批评了马斯克预言自动驾驶汽车在2020年实现不切实际。
“AI批评家”马库斯
感受了一通批评大拼盘,是不是觉得滋味一言难尽。
他个人网站的介绍是:
加里·马库斯,科学家,畅销书作者,企业家,AI逆势者。
作为批评的惯例,怎能只破不立?换个胃口,看一下他提出了六条“意见”。马库斯提出,在研究者和报道者谈论AI时,都应该考虑到下面六个问题。
1、人工智能系统实际上在做什么?“阅读系统”真的阅读吗?
2、结果有多普遍?
3、有没有感兴趣的读者可以自己探索的演示?
4、如果说人工智能系统比人类更好,哪个人类,好多少呢?(相比之下,低薪工人缺乏良好表现的动力可能无法真正探究人类能力的极限)
5、实际上,成功完成特定任务可以使我们迈向建立真正的AI多远?
6、系统的鲁棒性?无需大量重新培训,它是否可以与其他数据集一样好用?AlphaGo在19×19的板上可以正常工作,但是需要重新训练才能在矩形板上运作。缺乏转移正说明了这一点。
有网友问,
这个马库斯很重要么?他对机器学习或者AI的贡献是啥?
网友答曰:
他的贡献可以总结为,写了一些文章,怀疑AI的人读起来会开心。
马库斯写了很多批评AI的文章,量子位之前也都介绍过:
这十大挑战,摆在DL面前:马库斯长文质疑深度学习
“众矢之的”马库斯回应14个问题,将深度学习质疑到底
马库斯:DeepMind新出的机器心智网络不错,但有误导性
但是好像有一句话怎么说来着不因人废言,不因言废人(对的,孔子说的)
网友也说了,谈一谈对文章的不满意比攻击作者更好。
网友评论
尽管我同意马库斯说媒体过度宣传AI,以及研究者应在防止错误信息做得更好,但是他的方式不合理。他似乎沉迷于寻找神经网络(NN)研究者的漏洞。用这种方式,和他进行有益的对话很困难,而且NN研究者也会有防御心态。
除此以外,符号学AI太过简单,不能产生AGI,这意味着用NN来完成是有帮助的。研究不是辩论。
文章里援引的例子大多来自2015到2017年的AI炒作期。回溯来看,那是一个有很多突破的时期,比如DQN,AlphaGo,Resnets,有很多目标检测和GAN执行上的突破。人们刚开始基于这些进展进行推断,我不怪他们。
没错,进展变得缓慢,但是所有的这些最终会实现。
你知道码字至此的我,内心的OST是啥?
(长这么大,从来没有梳理某个人的长篇批评弄这么久!!)
你看完了有啥感受?请多多评论吧,如果有那么一点点收获,也算欣慰了。(手动比芯芯)
参考链接:
https://w.url.cn/s/AGxr2q4
https://worldin.economist.com/article/17521/edition2020artificial-intelligence-predicts-future
https://www.youtube.com/watch?v=2HMPRXstSvQ&t=29s
http://garymarcus.com/bio/bio.html
— 完 —
- 看「菊纹」,知疾病,这个智能马桶,知道你下半身的所有秘密2020-04-12
- 这拖拉机你能开算我输:美国少女“揭秘”现代拖拉机驾驶室2020-05-05
- 史上最大“云办公”实验开始,你参加了吗?2020-02-04
- 英伟达上线游戏云服务平台GeForce Now,每月4.99美元2020-02-05