人工智能换脸技术被滥用,带来的安全隐患和威胁不容忽视

新知榜官方账号

2023-10-02 19:10:32

近日,“某科技公司老板遭遇AI换脸诈骗”一事引发网友热议。据报道,当事人突然接到好友的微信视频,经过短暂聊天,好友开口借钱。基于视频聊天及信任对方的前提下,他毫无怀疑把钱转了过去,没想到却是不法分子通过AI换脸技术,佯装好友进行诈骗。魔幻一幕令人吃惊,但这并非AI换脸第一次作恶了。除了诈骗钱财,此前还有女子被人利用AI“一键脱衣”造黄谣,某男子利用视频合成技术,将电视剧中与某知名女星亲吻的男主角换成自己以蹭流量,效果都到了以假乱真的地步。如上案件细节不尽相同,但无不直观展示了一些人利用AI作恶的可怖之处。

近日,“平安包头”公众号发布一起利用人工智能(AI)实施电信诈骗的典型案例。“平安包头”的警情通报显示,4月20日中午,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。事后,郭先生拨打好友电话才知道被骗,原来骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。

人工智能换脸技术除了被用于诈骗,还经常出现在直播带货中。近日,有网友点开直播间,发现正在卖货的竟是当红女星。然而再定睛一看,这些带货“明星”很快露出了马脚——身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。利用人工智能(AI)手段为视频中的人物“换脸”,这项技术已经发展到可以实时动态修改直播画面。

为了规范人工智能发展,尤其是规避AI换脸带来的系列问题,已经有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容。但是,由于人工智能开发还是一个高速成长的领域,规则的健全完善还需要时间。不管怎么说,此次案件都提醒我们,技术被滥用的风险,对普通人造成的安全隐患和威胁,绝对不容低估。对大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时应更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好地保护每个人的信息和财产安全。

本页网址:https://www.xinzhibang.net/article_detail-14967.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 换脸技术 安全隐患

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯