大模型存在“逆转诅咒”?一项研究引发AI大佬惊叹

新知榜官方账号

2023-09-26 01:26:49

大模型存在“逆转诅咒”?一项研究引发AI大佬惊叹

最近,一项研究发现,大模型身上存在一种「逆转诅咒」,即使学会「A是B」,它们也无法推理出「B是A」!大语言模型,竟然存在一种「逆转诅咒」?所谓逆转,也就是说,一个训练于「A是B」的语言模型能否推广到「B是A」呢?例如,当我们教会一个模型「乔治·华盛顿是美国第一任总统」后,它能否自动回答「谁是美国第一任总统?」最近,来自英国前沿人工智能工作组、ApolloResearch、纽约大学、牛津等机构的一项研究表明,大模型做不到!论文地址:https://owainevans.github.io/reversal_curse.pdf

比如,LLM明明知道「汤姆·克鲁斯的母亲是MaryLeePfeiffer」,但就是无法答出「MaryLeePfeiffer的孩子是汤姆·克鲁斯」。而这项研究,也引发了一众AI大佬的惊叹。OpenAI科学家Karpathy转发并评论道:大语言模型的知识比你想象得要零碎得多。我还不明白这是为什么。它们学习任何事物的特定「方向」,都是在该事件发生的语境窗口中,而当被问及其他方向时,它们可能无法概括。这是一种奇怪的局部概括。「逆转诅咒」(很酷的名字)就是这种情况的一个特例。

马库斯对这篇论文背后所蕴含的深厚历史所惊叹,干脆直接写了一篇博文。甚至,他还发出了这样的感慨——「为啥这篇论文不是我自己写的啊!」

为了测试模型的泛化能力,研究人员首先利用虚构的事实(A是B)对GPT-3和LLaMA进行了微调。然后,又在相反的方向上对模型进行了测试(B是A)。结果显示,大语言模型给出的回答,正确率几乎是0%!不仅如此,研究人员还发现,他们无法通过训练来提高LLM给出正确答案的可能性。比如,利用「<名字>是<描述>」这样的提示对模型进行特训之后,再提问「<描述>是什么」。不管是何种规模的模型,给出正确答案的概率基本上和随机生成的没有区别。在更进一步的实验中,研究人员探索了「逆转诅咒」会对模型的实际表现产生什么影响。结果显示,在519个关于明星的事实中,预训练LLM可以在一个方向上复现,但在另一个方向上却不能。同样,在大约1573对明星和他们父母的测试集中,LLM(包括GPT-4)也更擅长根据明星推断他们的父母是谁,而不是反过来。对此,研究人员分析称:这很可能是因为,互联网上的文本会更多地包含像「汤姆·克鲁斯的母亲是MaryLeePfeiffer」这样的句子,而不是「MaryLeePfeiffer的儿子是汤姆·克鲁斯」,因为汤姆·克鲁斯是一位明星,而他的母亲不是。

「逆转诅咒」为何重要?首先,这意味着LLM在训练过程中是无法进行推理的。因为如果你知道了「乔治·华盛顿是第一任美国总统」,那么也一定能得出「第一任美国总统是乔治·华盛顿」这个结论。其次,「A是B」和「B是A」的共同出现在预训练集中是一种系统模式,而自回归LLM完全无法针对这种模式进行元学习。而且,即便将参数从350M扩展到175B,模型的表现也没有任何改善。有趣的是,在人类身上,似乎也存在「逆转诅咒」。比如当你在尝试倒背字母表时就会发现,以这种相反的顺序来检索信息,要比正向操作困难得多。

马库斯认为,这个问题在现代最早对神经网络进行批判的核心问题中就已经存在了。当你试图推断出训练示例空间之外的情况时,你就没戏了。过去如此,现在依然如此。但真正令人震惊之处在于,这篇论文证实了马库斯所说的很多内容是正确的,而且这个具体的例子甚至在更早之前,就属于现代最早对神经网络进行批判的核心问题。

本页网址:https://www.xinzhibang.net/article_detail-13708.html

寻求报道,请 点击这里 微信扫码咨询

相关工具

相关文章

相关快讯