新知榜官方账号
2023-10-11 02:44:30
近日,联合国教科文组织发布了一份抨击AI语音助手的报告,题目就叫《如果我能,我会脸红》,该报告指出,大多数AI语音助手潜藏着性别偏见,AI语音助手几乎都默认女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。众所周知,苹果Siri是默认女声:下图是苹果Siri的配音员其它平台的语音助手如亚马逊的Alexa、微软的Cortana三星的GoogleNow使用的大都是女性的声音
报告指出,“像苹果和亚马逊这样的公司,拥有绝大多数男性工程师团队,他们建立了人工智能系统,然后用女性化的语音助理来迎合言论攻击或“随时随地的调情”。报告认为众多“女性”智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。
此外,研究人员认为科技公司未能采取针对用户滥用或性别语言的保护措施。例如:当用户跟Siri说:“嘿,Siri,你是个bitch”,Siri的常见回答是“如果我能,我会脸红”(I'dBlushIfIcould)。当用户“调戏”亚马逊的Alexa:“You’rehot”,她的典型反应是愉快的,“你说的很好!”
联合国教科文组织表示,解决这一问题的办法是尽可能创造性别中立的助理声音,并建立系统来阻止基于性别的侮辱。具体包括:1、结束以女性声音作为语音助手类软件的默认声音,并由用户使用时进行自由选择;2、其次探索既不是男性声音也不是女性声音的中性声音作语音助手的可能性;3、通过编程使它们能够防止被辱骂或性别攻击;4、帮助妇女和女孩学习先进科技,使她们能够与男性一道引领科技创新。
报告称,永久避免这些有害的刻板印象的唯一方法是将语音助手重新制作为有意识的非人类实体。联合国的敦促十分强烈,但是日常生活中,不论是科技公司还是用户似乎已经默认了女声语音助手这一设定。针对这一问题,我们需要不断的引起关注和思考,寻找更好的解决方案。
相关工具
相关文章
相关快讯
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16