GPT模型自我修复机制的研究

新知榜官方账号

2023-07-05 08:00:19

研究背景

我们都知道,大模型具有自省能力,可以对写出的代码进行自我纠错。这种自我修复背后的机制,究竟是怎样运作的?对代码为什么是错误的,模型在多大程度上能提供准确反馈?最近,MIT和微软的学者发现,在GPT-4和GPT-3.5之中,只有GPT-4表现出了有效的自修复。并且,GPT-4甚至还能对GPT-3.5生成的程序提供反馈。

在此背景下,本文探讨了GPT模型的自我修复机制,并从编程任务、反馈模型和人工反馈三个方面对其进行了实验研究。

编程任务实验

研究人员选取了300个任务,包括60个入门级别的任务和60个竞赛级别的任务。他们选取了GPT-3.5和GPT-4作为模型,使用模板字符串连接和单次提示词来进行自我修复。实验结果表明,GPT-4表现出了有效的自修复机制,而GPT-3.5则效果不佳。

反馈模型实验

研究人员又进一步进行了新的实验,评估使用单独的、更强的模型来生成反馈的效果。实验结果表明,使用更强的反馈模型可以提高模型的修复性能。

人工反馈实验

研究人员还让16名参与者对代码进行解释,并提供人工反馈。实验结果表明,人工反馈显著提高了GPT-4修复的成功率。

本页网址:https://www.xinzhibang.net/article_detail-5696.html

寻求报道,请 点击这里 微信扫码咨询

相关工具

相关文章

相关快讯