AI诈骗:高科技手法让人防不胜防

新知榜官方账号

2023-10-01 23:17:03

AI诈骗爆发,智能AI技术被滥用

近年来,随着ChatGPT等生成式AI技术的风靡和不断升级,越来越多的人类工作岗位开始面临被取代的风险。然而,AI技术被滥用的风险也在加剧,一些犯罪分子盯上了AI技术,利用智能AI技术实施电信诈骗,让人防不胜防。

最近一段时间国内外都出现了AI诈骗案例,用户损失惨重。据报道,最近内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,骗子通过智能AI换脸和拟声技术,佯装好友对福州市某科技公司法人代表郭先生实施了诈骗,10分钟内被骗了430万元。5月8日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。事件从4月20日说起。据平安包头公众号所述,20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。

AI技术被滥用的风险加剧,一些犯罪分子盯上了AI技术,实施电信诈骗,让人防不胜防,同时凸显了AI生成虚假信息所带来的社会危险。多地都出现了AI诈骗案例,不少普通人被所谓的“私密照片”敲诈勒索。

AI技术被滥用,生成虚假信息风险加剧

越来越多的犯罪分子盯上了AI技术,利用智能AI技术实施电信诈骗。AI换脸技术并非是近期才兴起,早在2017年,一位名为DeepFake网友将情色电影中的女主角换脸成好莱坞明星盖尔·加朵(GalGadot),这是AI换脸技术首次出现在公众视野当中。后来由于大量投诉者表示不满,其账号被官方封禁,而此后的AI换脸技术则以他的名字命名为“DeepFake”。AI换脸真正在国内火起来是在2019年初,一段通过AI技术将《射雕英雄传》中黄蓉扮演者朱茵的脸替换为杨幂的视频在网络上热传,引发大家对于AI是否会侵犯人的肖像版权问题。

如今,AI技术已被不法分子盯上,并用于各类层出不穷的换脸花样。多地都出现了AI诈骗案例,不少普通人被所谓的“私密照片”敲诈勒索。据华西都市报此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。

AI技术被滥用的风险加剧,一些犯罪分子盯上了AI技术,实施电信诈骗,让人防不胜防,同时凸显了AI生成虚假信息所带来的社会危险。

如何防范AI诈骗?

AI诈骗常用手法主要包括声音合成、AI换脸、转发微信语音、AI程序筛选受害人等。那么,AI诈骗这种“高科技”手法已经在社会产生了不良影响,我们该如何防范?

萧子豪对钛媒体App表示,如果遇到这类疑似AI换脸诈骗的情况,可以在视频时有意识地引导对方做一些动作,如大幅度的摇头或张嘴;如果骗子技术手段较弱,那么有可能发现对方面部边缘或者牙齿的瑕疵,从而识别出AI换脸;如果疑似是声音伪造,可以试一下与对方用方言交流;此外还可以追问几个只有你与好友之间才知道的私密信息,来核实对方身份。

警方则提醒,对于新型诈骗方式有以下三种防范措施:如果有人要求你分享个人身份信息,如你的地址、出生日期或名字要小心,对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的,多重验证,确认身份;不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等,陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号,保护信息,避免诱惑;提高安全防范意识,如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

建立监管机构,规范AI的发展

随着AI技术加速变革同时,营造创新生态、重视防范风险,正在成为整体AI技术行业亟待解决的关键性问题。AI的创新步伐太快,世界需要一个类似管理核能的国际监管机构来管理AI的发展。

萧子豪告诉钛媒体App,和其他通用目的技术一样,AI也具有“双刃剑”效应,面临着“科林格里奇困境”,而大模型的安全问题应该从底层技术来研究解决,主要的应对方式包括安全评估、风险缓解等,通过AI安全平台RealSafe等产品帮助人类明晰真伪的边界。

从长远来看,AI的安全问题还应从模型算法的原理上来突破。随着AI技术的发展,其自身的安全问题会越来越重要,需要监管部门、AI厂商和公众的共同努力。

本页网址:https://www.xinzhibang.net/article_detail-14722.html

寻求报道,请 点击这里 微信扫码咨询

相关工具

相关文章

相关快讯