「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了
Springer已紧急撤稿
鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI
看面相,就能算出一个人会不会犯罪?
这种《少数派报告》式的研究,还真有人做了:依靠面部识别技术,仅凭照片,来预测某个人是否是罪犯。
论文被学术出版商Springer Nature接收,计划刊载在《Springer Nature-研究丛书:计算科学与计算智能学报》上。
这个消息,让包括LeCun在内的,来自哈佛、MIT、谷歌和微软等机构的1700名教授、研究人员怒了:
这种论文写出来也就算了,Springer Nature这个看上去浓眉大眼的学术出版商,竟然还要公开刊载?
于是,他们给Springer Nature写了一封联名信,严正要求出版商撤回论文,并承诺不再发表类似研究。
机器学习,反而会放大歧视
尽管论文的作者称,其算法具有「80%的准确性,并且没有种族偏见」,但联名发信的AI研究者们认为:
根本没有办法开发出没有种族偏见的预测犯罪系统,因为数据本身就是含有偏见的。
所谓「没有种族偏见」,实际上是把算法偏见和社会偏见混为一谈。
信中强调了这样的观点:刑事司法系统产生的数据不能用于「识别罪犯」或预测犯罪行为。
要用让AI通过看「面向」,预测犯罪,看似不偏不倚,但实际上基于一个假设前提:有关犯罪逮捕和定罪的数据,都是可靠、中立、无偏见的。
然鹅,引爆全美的乔治·弗洛伊德事件已经再一次用事实表明,这个假设是不成立的——这些数据当中,本身就记录了现实中存在的社会偏见。
信中谈到,这一关乎数据有效性的基本问题,无法通过数据清洗和收集更多数据来解决。
即使研究人员本身不带有任何偏见,机器学习模型也会继承数据集中的偏见,甚至放大歧视性结果。
此外,还有一个更重要的问题。
人脸识别技术之所以能取得现在的成绩,是因为涉及到的任务不存在不确定性。举个例子,给出两张照片,AI只需要判断是不是同一个人就行了。
但是,面部特征和犯罪,真的存在这样的逻辑关系吗?
「犯罪身体特征」,恐怕根本是个伪命题。
因此,犯罪预测技术,再现了不公正现象,并且有害。
于是,1700名来自多个研究领域的教授、研究者联名要求:
撤销该论文的公开发表,并解释用于评估该研究的标准。
Springer发表声明,谴责使用刑事司法统计数据预测犯罪行为的做法,并承认错误。
所有出版商今后不要出版类似研究。
网友热议
联名倡议一经发出,获得了众多响应,并在社交媒体上引发了网友的热烈讨论。
有网友提到了斯皮尔伯格的《少数派报告》,AI就像里面的“先知”,根据预测提出的指示/建议甚至可能完全不可靠。
这样的研究就是危险的sh*t。
还有网友认为,依据面部图像去识别罪犯,这种想法并没有比让麦当劳通过面相,预测你今天是要吃麦辣鸡腿堡还是板烧鸡腿堡高明。
也有人担心,这样的“客观”算法会成为执法部门掩盖歧视、不公正的借口。
压力之下,Springer Nature也已作出回应:不会发表这篇文章。
参考链接
https://medium.com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16
https://www.vice.com/en_us/article/889xyb/over-1000-ai-experts-condemn-racist-algorithms-that-claim-to-predict-crime
https://www.reddit.com/r/MachineLearning/comments/heiyqq/dr_a_letter_urging_springer_nature_not_to_publish/
— 完 —
- 从骁龙8至尊版,我看到了AI手机的未来 | 智在终端2024-12-17
- o1被曝“心机深”:逃避监督还会撒谎,骗人能力一骑绝尘2024-12-09
- 低成本机器人“皮肤”登上Nature子刊:实现三维力的自解耦,来自法国国家科学研究中心&香港大学2024-11-23
- OpenAI重夺竞技场第一,但这波靠的是4o2024-11-21