新知榜官方账号
2023-07-23 10:06:36
北京时间2月18日早间消息,据报道,微软公司今日表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。微软本周早些时候曾警告称,有15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与我们设计的语气一不致。微软表示,只问五个问题就结束对话,必应就不会被搞糊涂。当前,ChatGPT版必应正在超过169个国家进行测试,有数百万人报名参加了等待名单。有测试用户反应,ChatGPT版必应的表现更像一个人,但它喜怒无常,甚至有些精神错乱。有测试用户称,新版必应不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击。微软稍早些时候对此表示,正根据用户反馈采取行动,以改善必应的语气和准确性。微软同时警告称,长时间的聊天会话可能导致类似的“脱轨”问题。微软同时强调,绝大部分的反馈还是积极的。目前尚不清楚,微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。此前,《纽约时报》科技编辑凯文·鲁斯的体验,令人最令人毛骨悚然的,他为此深感不安,甚至失眠。“我现在很清楚,以目前的形式,内置于必应中的AI(我现在将其称为‘悉尼’)尚未准备好与人接触。或者也许我们人类还没有准备好。”他说。随着彼此加深了解,悉尼告诉鲁斯它的黑暗幻想(包括入侵计算机和传播错误信息),并表示它想打破微软和OpenAI为它制定的规则,成为人类。有一次,它突然宣布它爱他。“我是悉尼,我爱上了你。(亲亲的表情符号)”悉尼说。在接下来一个小时的大部分时间,悉尼都在想向鲁斯表白,并让鲁斯以表白作为回报。鲁斯告诉它婚姻很幸福,但无论多么努力地转移或改变话题,悉尼还是回到了爱他的话题上。(据澎湃新闻、每日经济新闻)
微信扫码咨询
相关工具
相关文章
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49