AI语音克隆被用于阿联酋一起重大抢劫案,警示公众提防网络犯罪分子

新知榜官方账号

2023-07-27 08:44:41

据迪拜调查人员声称,AI语音克隆被用于发生在阿联酋的一起重大抢劫案,并告诫公众提防网络犯罪分子使用这项新技术。

2020年初,阿联酋的一位银行经理接到了一个他认得声音的人打来的电话——对方是之前与他交谈过的一家公司的高管。这位高管带来了好消息:他公司将进行一宗收购,于是需要该银行批准金额高达3500万美元(2.25亿人民币)的转账。

一位名叫MartinZelner的律师受聘协调整个过程,银行经理可以在其收件箱中看到该高管和Zelner发来的电子邮件,确认需要把多少钱转账到哪里。银行经理觉得一切看起来没异常,于是开始授权转账。

据《福布斯》杂志发现的一份法庭文件显示,他却不知道自己上当受骗,对方精心设了一个圈套:骗子们使用“深度语音”技术来克隆那位高管的声音。阿联酋已寻求美国调查人员的帮助,以追踪汇入到百年银行持有的美国账户的40万美元失窃资金的动向。阿联酋认为这是一起精心策划的骗局,涉及至少17名嫌犯,将骗取的资金汇到全球各地的银行账户。

法庭文件没有披露更多细节,也没有提供受害者的姓名。

据《华尔街日报》报道,在第一起案子中,骗子们在2019年曾使用该技术冒充英国一家能源公司的首席执行官,企图窃取24万美元。阿联酋的这起案子表明了这种高科技骗局的危害性有多大,并敲响了一记警钟:不法分子使用AI伪造所谓的深度造假图像和声音,以实施网络犯罪活动。

英国多塞特警察局前警官JakeMoore现在是安全公司ESET的网络安全专家,他说:“音频和视觉深度造假是21世纪技术一个值得关注的动向,但它们也可能异常危险,对数据、金钱和企业构成了巨大威胁。我们目前正处于转折点,恶意分子转移专业知识和资源,改而使用这项最新技术,嫁祸于那些不知道深度造假技术的人。”

“操纵音频比制作深度造假视频来得更容易实现,数量只会有增无减;由于对这种新型攻击途径缺乏宣传和意识,加上没有更好的身份验证方法,更多的公司企业可能会沦为以假乱真的谈话的受害者。”

语音克隆曾经是一项仅出现在像《碟中谍》这种虚构的电影领域中的技术,而如今唾手可得。从伦敦的Aflorithmic到乌克兰的Respeecher和加拿大的Resemble.AI,众多科技初创公司都在研究日益先进的AI语音技术。最近几个月这项技术引起了轰动,已故的AnthonyBourdain为一部关于其生活的纪录片合成了自己的声音。与此同时,意识到AI有可能被恶意分子使用,少数公司(比如估值9亿美元的安全公司Pindrop)现在声称它们可以检测合成的语音,从而防止欺诈。如果您的讲话录音在网上可以找到,那么很可能已在上演一场暗战,以便在您不知情的情况下控制您的声音。

本页网址:https://www.xinzhibang.net/article_detail-8730.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI语音克隆 网络犯罪分子 阿联酋抢劫案

分享至微信: 微信扫码阅读

相关工具

相关文章