AI语音克隆诈骗银行高管,取2.2亿如探囊取物
电话确认也不能保证转账安全
行早 发自 凹非寺
量子位 报道 | 公众号 QbitAI
一位银行经理接到公司董事打来的电话:公司安排了一项收购,要从账户里转出巨额资金,希望他批准这道流程,还附上了相关律师的电子邮件,以确认金额和转入账户。
这次交易合法合规,流程也并无问题,况且还是老板亲自打的电话,他就按要求将3500万美元如数转出。
晴天霹雳的背后是AI语音转换
直到转完账之后,这位迪拜高管也万万没有想到,电话那头熟悉的老板的声音,其实是用语音克隆技术合成的。
这桩诈骗案由福布斯报道,但受害者的名字和其他更多细节没有透露。据估计,这项精密的计划至少涉及17人,自去年年初,骗取的资金已经发往全球各地的银行账户。
如果不是亲耳听到,应该是不会相信会有这么神奇的事。
(完整视频见下方链接)
网友表示,这讲话太流畅了,应该再加一些停顿……
不过不得不说,能做到这种程度已经能够以假乱真了。如果有更长的时间和更多的素材去训练,相似程度应该还能更上一层楼。
更可怕的是,如此逼真的转换,操作起来也不难。
例如在Github上大火的AI拟声项目Real-Time-Voice-Cloning,能够在5s内克隆你的声音并生成任意内容,还能直接下载或者自行训练合成器。这个视频就是基于该项目的训练成果。
开源项目可以直接从GitHub上直接获取:
然后再录入一段你的声音和目标声音,打出想要读出的文本内容,就可以克隆出一段输出音频了。
面对这样以假乱真的效果,也就不难理解这位银行高管为什么会被轻易诈骗了。但这仅是已知使用语音克隆实施巨额诈骗的第二例,已经远比第一例英国某能源公司22万欧元诈骗案更为成功,其破坏力可见一斑。
科技中立,善恶由人
了解完这样的新型诈骗手段不禁让人想问,发明出AI语音转换难道是用来骗人的吗?
完全不是,语音转换本可以用来做很有意义的事。在前些时候,语音转换技术就曾在央视节目《等着我》中出现,帮助退役多年的袁爷爷,找回了当时在战场上一同作战的老排长的“声音”。
如今已有少数信息安全方面的创业公司关注到这一点。他们声称可以检测出合成的语音以防止诈骗。
反诈原理是通过对比音频里单词的实际发音在细微程度上是否与真实人类的说话模式相匹配,毕竟人类发音不会像机器一样标准、机械。
这也给我们提了一个醒,有必要及时关注科技新进展,不断提高安全意识。
对于长辈来说,今后除了要下载反诈app,可能还要多验证验证电话另一端是不是真正的儿子(女儿)~
赶快转发到家族群,让家人不要受骗!(保护)
参考链接:
[1]https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=477fff8d7559
[2]https://www.bilibili.com/video/BV1xq4y1N7BX?share_source=copy_web
[3]http://sjcj.nuaa.edu.cn/sjcjycl/article/html/201905001
- Ilya宣判后GPT-5被曝屡训屡败,一次训数月,数据要人工从头构建2024-12-22
- Sora开服被挤爆!支持中文/编剧模式/作品分享,145块就能玩2024-12-10
- 华为云又一数据中心开服:让算力像水电一样通用,青岛这步棋走对了2024-12-07
- 第一个国产中文o1来了,直接数学竞赛题伺候!2024-11-27