AI换脸诈骗正在爆发,多地警方发布相关案例

新知榜官方账号

2023-10-02 18:02:17

AI换脸诈骗正在爆发,多地警方发布相关案例

近期,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。而北京青年报记者查询发现,国内多地警方已经发布了相关案例。

其中,武汉市公安局刑侦局反电信网络诈骗中心曾总结了目前AI诈骗的常用手法:

  1. 声音合成。骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
  2. AI换脸。人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
  3. 转发微信语音。微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
  4. 通过AI技术筛选受骗人群。骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。

此外,北京青年报记者还注意到,福建、安徽等地已经发生了多起AI换脸诈骗案件。对此,警方和银行等机构已经启动了相应的防范措施,并成功止付拦截骗款。但是,AI换脸诈骗的手法日臻炉火纯青,公众仍需提高警惕,防范此类违法行为。

文/北京青年报记者李铁柱

本页网址:https://www.xinzhibang.net/article_detail-14937.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI换脸 诈骗 警方

分享至微信: 微信扫码阅读

相关工具

相关文章