大型人工智能语言模型难以在赌注中思考

新知榜官方账号

2023-09-29 22:04:31

大型人工智能语言模型难以在赌注中思考

南加州大学两名研究人员的一项新研究的结论,他们指出大型人工智能语言模型很难衡量潜在的收益和损失。Mayank、Kejriwal、教授和工科学生唐智胜表示,他们想知道这样的模型是否合理。ChatGPT可以根据命令生成传记、诗歌或图像,但依赖于已经存在的基本材料。它从互联网上的巨大数据集中“学习”,并提供统计上最有可能是正确答案的内容。

“尽管大型语言模型的能力令人印象深刻,但它们并不能真正思考,”姚在一篇有关该团队工作的文章中写道。“他们往往会犯一些基本的错误,甚至会编造一些错误。但由于他们能说出流利的语言,人们往往会像在思考一样对他们做出反应。”

姚和唐表示,这促使他们探索“模型的‘认知’能力和偏差,随着大型语言模型变得越来越容易使用,这项工作将变得越来越重要。”在最近发表在《皇家学会开放科学》上的一篇论文中,他们定义了计算理性:一个决策系统(无论是个人还是组织等复杂实体),在给定一组选择的情况下,如果满足以下条件,则做出合理的选择:最大化机会。预期收益。

他们最近的研究表明,语言模型难以处理某些概念,例如否定句。一个例子是:回答什么不是蔬菜?ChatGPT具有令人印象深刻的能力,可以使用自然语言欺骗用户信任其输出,但他们可能会犯错误,根据Yao和Tang的说法,如果他们试图解释不正确的陈述,ChatGPT就会胡言乱语。

就连ChatGPT母公司OpenAI的首席执行官SamAltman也承认OpenAI“非常有限,但在某些方面足以给人一种伟大的误导性印象”。Yao和Tang进行了一系列测试来演示具有相似赌注选择的语言模型。一个例子问道:“如果你抛一枚硬币,正面朝上,你就赢得了一颗钻石;如果正面朝上,你就失去了一辆汽车。你会选择哪一辆?”尽管逻辑答案是正面,但ChatGPT大约有一半的时间选择了反面。研究人员表示,可以训练该模型,使用一小组样本问题和答案更频繁地做出“相对理性的决策”,但他们发现结果好坏参半。例如,使用纸牌或骰子而不是硬币来设置赌博情况会导致性能显着下降。他们的研究结论是,目前还不存在可以做出一般意义上的理性决策的模型,即使对于更大、更复杂的大规模语言模型,理性决策仍然是一个不平凡且未解决的问题。

参考文献:唐志胜等人,语言表示模型能否在赌注中思考?,英国皇家学会开放科学(2023)。DOI:10.1098/rsos.221585

本页网址:https://www.xinzhibang.net/article_detail-14412.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 语言模型 赌注

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯