联合国教科文组织发布报告:AI语音助手潜藏性别偏见

新知榜官方账号

2023-10-11 02:44:30

背景介绍

近日,联合国教科文组织发布了一份抨击AI语音助手的报告,题目就叫《如果我能,我会脸红》,该报告指出,大多数AI语音助手潜藏着性别偏见,AI语音助手几乎都默认女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。众所周知,苹果Siri是默认女声:下图是苹果Siri的配音员其它平台的语音助手如亚马逊的Alexa、微软的Cortana三星的GoogleNow使用的大都是女性的声音

报告内容

报告指出,“像苹果和亚马逊这样的公司,拥有绝大多数男性工程师团队,他们建立了人工智能系统,然后用女性化的语音助理来迎合言论攻击或“随时随地的调情”。报告认为众多“女性”智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

此外,研究人员认为科技公司未能采取针对用户滥用或性别语言的保护措施。例如:当用户跟Siri说:“嘿,Siri,你是个bitch”,Siri的常见回答是“如果我能,我会脸红”(I'dBlushIfIcould)。当用户“调戏”亚马逊的Alexa:“You’rehot”,她的典型反应是愉快的,“你说的很好!”

解决方案

联合国教科文组织表示,解决这一问题的办法是尽可能创造性别中立的助理声音,并建立系统来阻止基于性别的侮辱。具体包括:1、结束以女性声音作为语音助手类软件的默认声音,并由用户使用时进行自由选择;2、其次探索既不是男性声音也不是女性声音的中性声音作语音助手的可能性;3、通过编程使它们能够防止被辱骂或性别攻击;4、帮助妇女和女孩学习先进科技,使她们能够与男性一道引领科技创新。

结论

报告称,永久避免这些有害的刻板印象的唯一方法是将语音助手重新制作为有意识的非人类实体。联合国的敦促十分强烈,但是日常生活中,不论是科技公司还是用户似乎已经默认了女声语音助手这一设定。针对这一问题,我们需要不断的引起关注和思考,寻找更好的解决方案。

本页网址:https://www.xinzhibang.net/article_detail-16303.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI语音助手 性别偏见 联合国教科文组织

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯