GPT-4参数规模扩大1000倍,如何实现?

新知榜官方账号

2023-10-12 01:27:01

GPT-4参数规模扩大1000倍,如何实现?

OpenAI科学家最新演讲,从第一性原理出发,探讨了2023年大模型发展现状。GPT-4即将超越拐点,并且性能实现显著跳跃。这是OpenAI科学家HyungWonChung在近来的演讲中,对大模型参数规模扩大能力飙升得出的论断。在他看来,我们所有人需要改变观点。LLM实则蕴藏着巨大的潜力,只有参数量达到一定规模时,能力就会浮现。

HyungWonChung将这次演讲题目定为「2023年的大型语言模型」,旨对LLM领域的发展做一个总结。在这个领域中,真正重要的是什么?虽然「模型扩展」无疑是突出的,但其深远的意义却更为微妙和细腻。在近一个小时的演讲中,HyungWonChung从三个方面分享了自己过去4年从业以来对「扩展」的思考。都有哪些亮点?

01参数规模越大,LLM势必「涌现」

HyungWonChung强调的核心点是,「持续学习,更新认知,采取以“规模”为先的视角非常重要」。因为只有在模型达到一定规模时,某些能力才会浮现。多项研究表明,小模型无法解决一些任务,有时候还得需要依靠随机猜测,但当模型达到一定规模时,就一下子解决了,甚至有时表现非常出色。因此,人们将这种现象称之为「涌现」。即便当前一代LLM还无法展现出某些能力,我们也不应该轻言「它不行」。相反,我们应该思考「它还没行」。一旦模型规模扩大,许多结论都会发生改变。这促使许多研究人员能够以一个新的视角去看待这个问题,即推理思路的根本性转变,从「一些方法现在不起作用」,到「一些方法只是在当前不起作用」。也就是,最新方法可能不适用于当前模型,但是3-5年后,可能变得有效。有着新颖视角的AI新人,通常可以带做出有影响力研究。那是因为他们不受一种直觉和想法的束缚,即经验丰富的人可能已经尝试过但发现不成功的方法。

02第一性原理看Transformer

迄今为止,所有大模型背后的架构都是基于Transformer搭建的。想必很多人已经对下图的样子熟记于心。这里,HyungWonChung从第一性原理出发探讨Transformer的核心思想,并强调了Transformer内部架构细节并非关注重点。他注意到,许多LLM的研究者不熟悉扩展的具体操作。因此,这部分内容主要是为那些想要理解大型模型训练含义的技术人员准备的。从功能性角度来看,可以把Transformer看作带有矩阵乘法一种简洁的序列到序列的映射,并可以进行相应数组转换。所以,扩大Transformer的规模就是,让很多很多机器高效地进行矩阵乘法。通过将注意力机制拆分为单独的头,利用多台机器和芯片,并使用GSPMD方法进行无需通信的并行化。然后借助Jax的前端工具PJ将阵列轴映射到硬件,可以实现大型语言模型的并行化。预训练模型的规模将跨越数量级,缩放法则是用小规模模型开发的。

03万倍GPT-4,让神经网络学习目标函数再进一步

扩展模型规模时,设想是GPT-4的10000倍,应该考虑什么?对HyungWonChung来说,扩展不只是用更多的机器做同样的事情,更关键的是找到限制进一步扩展的「归纳偏差」(inductivebias)。总之,扩展并不能解决所有问题,我们还需要在这大规模工程的工作中做更多研究,也就是在后训练中的工作。你不能直接与预训练模型对话,但它会在提示后继续生成,而不是回答问题。即使提示是恶意的,也会继续生成。模型后训练的阶段的步骤包括,指令调优——奖励模型训练——策略模型训练,这也就是我们常说的RLHF。尽管RLHF有着一些弊端,比如奖励模型容易受到「奖励黑客」的影响,还有开放的研究问题需要解决,但是我们还是要继续研究RLHF。因为,最大似然法归纳偏差太大;学习目标函数(奖励模型)以释放缩放中的归纳偏差,是一种不同的范式,有很大的改进空间。另外,RLHF是一种有原则的算法,需要继续研究,直到成功为止。总之,在HyungWonChung认为,最大似然估计目标函数,是实现GPT-410000倍规模的瓶颈。使用富有表达力的神经网络学习目标函数,将是下一个更加可扩展的范式。随着计算成本的指数级下降,可扩展的方法终将胜出。「不管怎么说,从第一原理出发理解核心思想是唯一可扩展的方法」。

本页网址:https://www.xinzhibang.net/article_detail-16418.html

寻求报道,请 点击这里 微信扫码咨询

关键词

GPT-4 大型语言模型 参数规模

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯