新知榜官方账号
2023-10-02 19:10:32
近日,“某科技公司老板遭遇AI换脸诈骗”一事引发网友热议。据报道,当事人突然接到好友的微信视频,经过短暂聊天,好友开口借钱。基于视频聊天及信任对方的前提下,他毫无怀疑把钱转了过去,没想到却是不法分子通过AI换脸技术,佯装好友进行诈骗。魔幻一幕令人吃惊,但这并非AI换脸第一次作恶了。除了诈骗钱财,此前还有女子被人利用AI“一键脱衣”造黄谣,某男子利用视频合成技术,将电视剧中与某知名女星亲吻的男主角换成自己以蹭流量,效果都到了以假乱真的地步。如上案件细节不尽相同,但无不直观展示了一些人利用AI作恶的可怖之处。
近日,“平安包头”公众号发布一起利用人工智能(AI)实施电信诈骗的典型案例。“平安包头”的警情通报显示,4月20日中午,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。事后,郭先生拨打好友电话才知道被骗,原来骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
人工智能换脸技术除了被用于诈骗,还经常出现在直播带货中。近日,有网友点开直播间,发现正在卖货的竟是当红女星。然而再定睛一看,这些带货“明星”很快露出了马脚——身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。利用人工智能(AI)手段为视频中的人物“换脸”,这项技术已经发展到可以实时动态修改直播画面。
为了规范人工智能发展,尤其是规避AI换脸带来的系列问题,已经有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容。但是,由于人工智能开发还是一个高速成长的领域,规则的健全完善还需要时间。不管怎么说,此次案件都提醒我们,技术被滥用的风险,对普通人造成的安全隐患和威胁,绝对不容低估。对大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时应更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好地保护每个人的信息和财产安全。
相关工具
相关文章
相关快讯
推荐
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49
国产GLM-4.5把AI价格打到地板价,实测强到离谱!
2025-07-30 09:08
用AI批量生成治愈系漫画,月入2000+
2025-07-29 09:59
千亿市场规模背后,AI短剧商业化迎来爆发期?
2025-07-17 09:19
15个作品涨粉26万!AI历史账号又出王炸案例!
2025-07-09 09:37
亲测真香!这6个AI工具让工作效率翻倍,同事追着问链接
2025-06-17 16:21
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15