新知榜官方账号
2023-11-11 16:18:28
1月31日,公安部网安局发文提醒公众,注意防范合成声音和AI换脸等人工智能新型手段诈骗,建议通过多重验证、保护信息和相互提示的方式避免上当。
所谓合成声音,是指骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
据公安部网安局公布的案例,2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。类似的案件也发生在国外。2019年9月,犯罪分子使用语音克隆软件对英国一家能源公司高管的声音进行模仿。该公司的执行董事在接听诈骗电话后,将24万美元汇入了一个匈牙利账户。目前,该罪犯仍未被抓获。
2020年2月20日,互联网安全专家公司Symantec报告了三起音频诈骗案例,犯罪分子通过电话会议、YouTube、社交媒体以及TED演讲获得了公司高管的音频,然后用机器学习技术复制高管的声音,致电财务部门的高级成员要求紧急汇款。
比声音合成更高级的骗术是AI换脸。近年来,以“深度伪造”技术(Deepfake)为代表的AI换脸技术日益成熟。通过“深度伪造”技术,可以将图片或视频中A的脸换到B的头上。
2019年8月,一个名为“ZAO”的AI换脸APP一度爆红,后因隐私、伦理等问题备受诟病。在“ZAO”APP中,用户只需上传一张自己的照片,就能将自己的脸替换到某位明星的头上,而且脸融合效果非常棒。这款应用强大的“换脸术”就是基于“深度伪造”技术。
目前,“深度伪造”技术正在被用于诈骗。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
近日,南京警方接到小李报警称,被诈骗3000元。小李介绍,大学同学通过QQ跟她借钱,对方打过来一段只有四五秒的视频电话,小李看到确实是本人,便放心转账。她在第二次转账时发现异常,再次拨通对方电话才得知同学的帐号被盗。警方判断,那段视频很有可能被人换了脸。目前,警方已立案。
《科技日报》此前援引安全分析公司Sensity的调查结果称,自2018年12月以来,“深度伪造”技术在线造假视频的数量大约每6个月翻一番,而截至2020年6月,造假视频已经多达49081个,比2019年7月增长了330%。
公安部网安局提醒,面对AI换脸诈骗,“看眼睛”是识别假脸的方法之一。多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。辨识“深度伪造”换脸视频的方法还包括语音和嘴唇运动的同步状况、情绪不符合、模糊的痕迹、画面停顿或变色。然而,专家指出,通过不断的技术迭代,迟早会有人可以通过“深度伪造”技术制造出人类用肉眼无法识别的“假脸”。
公众可以采取以下防范方法:
责任编辑:李跃群校对:栾梦
相关工具
相关文章
相关快讯
推荐
亲测真香!这6个AI工具让工作效率翻倍,同事追着问链接
2025-06-17 16:21
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53