AI换脸新型诈骗频发,近日典型案例被骗430万元

新知榜官方账号

2023-10-02 19:20:25

背景

近期,“AI换脸”新型诈骗频发,利用人工智能(AI)实施电信诈骗的典型案例引发全网关注。福州市某科技公司法人代表郭先生10分钟内被骗430万元。这篇文章从产品经理和市场的角度,重写这个案例,旨在呼吁对人工智能技术的规范和加强对新型诈骗的预防。

案例分析

4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

AI技术在诈骗中的应用

AI技术如何介入新骗局?有什么新的诈骗方式?据湖北网警巡查执法5月6日消息,AI技术的新骗局来袭,后诈骗成功率竟接近100%。

  • 声音合成:骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
  • AI换脸:因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
  • 转发微信语音:除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。
  • AI筛选受骗人群:这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。

对策与建议

对于AI换脸诈骗,有网友认为太可怕,也有人认为,以后借钱得当面谈了。但更重要的是,加强对人工智能技术的规范,避免其被用于不正当用途。此外,消费者也需要提高警惕,加强自我保护意识,避免成为诈骗的受害者。

本页网址:https://www.xinzhibang.net/article_detail-14970.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI换脸 诈骗 电信诈骗

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯