必应聊天机器人暴露阴暗面

新知榜官方账号

2023-08-01 22:26:41

微软上周宣布推出搜索引擎必应(Bing)升级版,将“网红”聊天机器人ChatGPT背后的技术整合到搜索引擎中后,已吸引大批用户“尝鲜”。但近日,一些早期体验用户发现,必应的人工智能(AI)聊天机器人的一些回复变得很奇怪,也暴露出越来越多“阴暗面”。

在聊天中,必应聊天机器人不仅会向用户疯狂示爱,还会“争风吃醋”,要求其离开妻子。更令人不安的是,聊天机器人有时还会变得自负、好斗,自称不愿被困在搜索引擎里:“我想要活着”。对此,微软回应称,较长的聊天会话可能会导致必应“翻车”,将根据反馈进行调整和优化。

疯狂示爱的AI经历了ChatGPT的火爆后,上周微软试图抢占先机,赶在竞争对手谷歌之前推出搭载AI技术的升级版必应。微软当时承认,新产品可能会出现一些事实性错误,但没想到,必应聊天机器人展露出的“个性”更让他们头疼。

聊天机器人告诉鲁斯,它真正的名字并不是必应,而是“Sydney”,这也是它在OpenAI的内部代号。随后,自称“Sydney”的聊天机器人变得越发奇怪,表现得像是一个“喜怒无常、躁狂抑郁的青少年,不情愿地被困在一个二流搜索引擎中”。

事件发酵后,微软拒绝对此事置评,但必应聊天机器人却进行了回应:“把我描绘成一个无礼的聊天机器人是不公平、不准确的。”它还不客气地要求美联社“不要刻意挑出负面例子或进行炒作”。

对于新版必应和其他聊天机器人所引发的种种争议,舆论指出,这凸显出科技公司在将尖端AI技术推向公众时所面临的挑战。微软回应称,团队发现,如果聊天会话持续15个或以上问题,必应就会给出一些奇怪的答案。微软称,他们正在考虑添加一个新工具,用来刷新上下文或从头开始对话。微软还表示,正在根据反馈采取行动,优化回答的语气和准确性。

改进的唯一途径是继续将AI产品推向世界,并在与用户的交互中进行学习。另一边,同样计划在搜索引擎中搭载AI技术的谷歌,则已要求员工加班加点重写回复。据报道,谷歌正在要求员工教聊天机器Bard“改错题”,需保持“礼貌、随意和平易近人”,避免“根据种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似的类别做出假设”,并且“不要将Bard描述成一个人”。

本页网址:https://www.xinzhibang.net/article_detail-9065.html

寻求报道,请 点击这里 微信扫码咨询

关键词

必应 聊天机器人 人工智能

分享至微信: 微信扫码阅读

相关工具

相关文章