LLM的开源研究:LLaMA、羊驼、维丘纳和考拉

新知榜官方账号

2023-10-13 16:28:56

LLM的开源研究

尽管大型语言模型(LLM)近年来取得了显著进展,但许多最强大的模型只能通过付费API获得,并且是使用大量专有数据进行训练的,这限制了研究界对这些模型的获取和再现。这种趋势引发了严重的担忧,即LLM是否会主要由少数中央集团控制,迫使其他人为与这些模型进行交互付费。这种情况严格地阻止了大多数研究人员直接访问或改进LLM的可能性。鉴于训练和托管LLM的计算负担,我们可能会怀疑是否将这些模型开源对于研究界是否有益。如果我们不是庞大组织中拥有大量计算资源的一部分,我们是否能够利用LLM进行有用的研究?如果不能,也许我们注定生活在LLM的中央控制和访问的世界。

这些模型似乎对大多数人来说有着太多的“引力”(即需要访问大量数据和计算),让大多数人难以轻松地使用它们。LLaMA的提议(及随后泄露给公众)朝着相反的方向发展,通过开源一套功能强大但较小的LLM。在LLaMA发布给公众后,我们看到了一大波关于LLM的开放研究。这些研究产生了各种不同的模型,其中一些模型的质量与ChatGPT相媲美。值得注意的是,这些模型的制作成本非常低(在大多数情况下少于500美元),并且所需计算资源较少(其中一些模型甚至可以在普通的MacBook上运行!)。

今天在这里,我们将调查一些最近提出的LLaMA模型,并探讨开源LLM研究是如何使这一主题更加易于接触的。

LLaMA

核心概念在之前的帖子中,我们已经了解了LLaMA,这是一套开源的高性能大语言模型,拥有各种不同的大小。LLaMA模型仅使用公共数据进行训练,这使它们与开源兼容,并且无需访问专有数据即可再现。但是,LLaMA的故事并未就此结束!这些模型最近在深度学习领域成为热门话题。在这个概述中,我们将审视由LLaMA所带动的研究,并了解这些模型为何以及如何变得受欢迎。首先,我们将对LLaMA提供更多背景信息,然后概述一些在本概述中理解重要的想法。LLaMA是如何被开源的?深度学习界长期以来一直拥抱开源,而某些研究领域仍然保持这种特点(例如,参见StableDiffusion)。然而,LLM领域与众不同,因为最受欢迎和最强大的模型仅通过付费API(例如GPT-4、Claude和Cohere)提供。LLaMA的开源打破了这一趋势,它是一套质量令人印象深刻的较小LLM基础模型。然而,LLaMA并非完全开源…故事有些复杂。首先,Meta公司发布了有关LLaMA的全部细节,包括深入的有用出版物、申请获得LLaMA访问权限的表格,以及一个简单的存储库,用于在获得模型访问权限后进行推理和标记化处理。为了获得模型的访问权限,人们必须同意一长串要求,例如不以商业目的使用LLaMA,并确保使用LLaMA创建的任何派生模型遵循相同的许可协议。但是,在这一发布约一周后,所有LLaMA模型的权重被公开发布到了4chan,供任何人下载。尽管LLaMA的分享是出乎意料的(并且可以说是有害的),但它激发了数千次的下载,并且随后促成了大量的开放研究。由于LLaMA由较小的模型组成,这些模型对于没有大量计算资源的研究人员来说更加容易使用,它们非常适合这种情况。大量杰出的深度学习研究人员在短短几周内投入到工作中,推动了许多由LLaMA驱动的项目,涵盖范围从在Macbook上托管数十亿参数的LLM到以不到500美元的成本复现ChatGPT等多个方面。

羊驼

羊驼是经过微调的LLLaMA-7B的一个版本,其性能类似于OpenAI的text-davinci-003(即GPT-3.5)。羊驼的微调过程基于自我指导(来自:“Self-Instruct:AligningLanguageModelwithSelfGeneratedInstructions.”),其中遵循指令的数据是从一个性能更高的LLM(即text-davinci-003)中收集的,并用于指令微调。具体而言,Alpaca证明了在遵循指令的环境中,通过在高质量数据上进行微调,可以大幅度提高小型开源LLM的质量。此外,Alpaca的整个微调过程只需花费600美元(包括数据收集和微调),使得这种遵循指令的LLM在研究目的下易于复制和廉价实现。

维丘纳

维丘纳的微调数据是使用ChatGPT的用户对话示例,并且整个微调过程的成本不到300美元,这样使得聊天机器人更容易用于研究目的。相较于Alpaca,维丘纳更类似于ChatGPT,并且能够生成更加详细和有结构的回答。

考拉

考拉-13B在与ChatGPT相比取得了具有竞争力的表现,甚至在表现上超越了相关的羊驼(Alpaca)模型。因此,考拉的结果继续支持我们在LLaMA之后所有研究中所看到的趋势。也就是说,我们发现,如果有正确的数据进行微调,较小的模型也能够达到令人印象深刻的质量。这样的研究结果可能会让我们思考:我们是不是过于关注模型规模,而忽视了数据质量的重要性呢?

结论

LLaMA、羊驼、维丘纳和考拉是最近开源研究中发现的LLM模型。这些模型在数据质量和训练效率方面有所不同,但它们都是通过开源数据进行训练的,并且在某些情况下可以与商业LLM模型相匹配。此外,本文还探讨了这些开源模型的商业可行性和LLM研究的未来发展。

本页网址:https://www.xinzhibang.net/article_detail-16651.html

寻求报道,请 点击这里 微信扫码咨询

关键词

LLM 开源研究 LLaMA 羊驼 维丘纳 考拉

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯