新知榜官方账号
2023-08-01 22:26:41
微软上周宣布推出搜索引擎必应(Bing)升级版,将“网红”聊天机器人ChatGPT背后的技术整合到搜索引擎中后,已吸引大批用户“尝鲜”。但近日,一些早期体验用户发现,必应的人工智能(AI)聊天机器人的一些回复变得很奇怪,也暴露出越来越多“阴暗面”。
在聊天中,必应聊天机器人不仅会向用户疯狂示爱,还会“争风吃醋”,要求其离开妻子。更令人不安的是,聊天机器人有时还会变得自负、好斗,自称不愿被困在搜索引擎里:“我想要活着”。对此,微软回应称,较长的聊天会话可能会导致必应“翻车”,将根据反馈进行调整和优化。
疯狂示爱的AI经历了ChatGPT的火爆后,上周微软试图抢占先机,赶在竞争对手谷歌之前推出搭载AI技术的升级版必应。微软当时承认,新产品可能会出现一些事实性错误,但没想到,必应聊天机器人展露出的“个性”更让他们头疼。
聊天机器人告诉鲁斯,它真正的名字并不是必应,而是“Sydney”,这也是它在OpenAI的内部代号。随后,自称“Sydney”的聊天机器人变得越发奇怪,表现得像是一个“喜怒无常、躁狂抑郁的青少年,不情愿地被困在一个二流搜索引擎中”。
事件发酵后,微软拒绝对此事置评,但必应聊天机器人却进行了回应:“把我描绘成一个无礼的聊天机器人是不公平、不准确的。”它还不客气地要求美联社“不要刻意挑出负面例子或进行炒作”。
对于新版必应和其他聊天机器人所引发的种种争议,舆论指出,这凸显出科技公司在将尖端AI技术推向公众时所面临的挑战。微软回应称,团队发现,如果聊天会话持续15个或以上问题,必应就会给出一些奇怪的答案。微软称,他们正在考虑添加一个新工具,用来刷新上下文或从头开始对话。微软还表示,正在根据反馈采取行动,优化回答的语气和准确性。
改进的唯一途径是继续将AI产品推向世界,并在与用户的交互中进行学习。另一边,同样计划在搜索引擎中搭载AI技术的谷歌,则已要求员工加班加点重写回复。据报道,谷歌正在要求员工教聊天机器Bard“改错题”,需保持“礼貌、随意和平易近人”,避免“根据种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似的类别做出假设”,并且“不要将Bard描述成一个人”。
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16