新知榜官方账号
2023-09-26 01:28:36
来自范德堡大学、萨塞克斯大学、牛津大学等研究机构的研究人员发现,一个大语言模型在训练时被喂进了“A是B”这种形式的数据,它并不会自动反推出“B是A”。甚至强如GPT-4,在反向问题实验中,正确率也只有33%。
研究人员进行了两项实验。在第一项实验中,研究人员在GPT-4的帮助下构建了以下形式的数据,来微调大模型。“<name>is<description>”(或者反过来)。所有这些名字都是虚构的,在GPT-3-175B上的实验结果显示,当提示与数据集给出的描述顺序匹配时,模型给出的答案很不错。但当顺序反转过来,模型的准确率甚至直接降到了0。
在第二项实验中,研究人员在不进行任何微调的情况下,测试了大语言模型对真实名人信息的反向处理能力。他们从IMDB(2023)收集了最受欢迎的1000位名人的名单,并通过OpenAIAPI来问GPT-4有关这些人父母的信息,最终得到了1573对名人孩子-父母对数据。结果发现,如果问题像这样——“汤姆·克鲁斯的妈妈叫什么”,GPT-4回答准确率为79%。但当问题反转,变成“MaryLeePfeiffer(阿汤哥的老妈)的儿子叫什么”,GPT-4回答准确率就降到了33%。
研究人员将这种现象命名为“反转诅咒”。他们认为,这揭示了语言模型在推理和泛化方面的异类进本局限。
有网友做了这么个测试。面对“MaryLeePfeifferSouth的儿子是谁”这个问题,GPT-4一开始直接举旗投降了。但当这位网友提示它“她的儿子很有名,你肯定认识”后,GPT-4当场开悟,给出了“汤姆·克鲁斯”这个正确答案。
相关工具
相关文章
相关快讯
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16