ColossalChat:一个开源的ChatGPT克隆方案

新知榜官方账号

2023-07-07 03:58:46

ColossalChat:一个开源的ChatGPT克隆方案

ColossalChat是一个开源的ChatGPT克隆方案,包含约10万条问答的中、英双语数据集,以及完整RLHF流程的类Chat模型复现方案。ColossalChat能够快速跟进ChatGPT完整RLHF流程复现,离不开AI大模型基础设施Colossal-AI及相关优化技术的底座支持。通过ColossalChat,科研人员和中小企业也能独立训练部署自己的会话系统。

生成式AI正以“天”为单位,快速迭代,持续狂飙!然而,OpenAI并未将其开源,它们背后的技术细节有哪些?如何快速跟进、追赶并参与到此轮技术浪潮中?如何降低AI大模型构建和应用的高昂成本?如何保护核心数据与知识产权不会因使用第三方大模型API外泄?作为当下最受欢迎的开源AI大模型解决方案,Colossal-AI率先建立了包含监督数据集收集->监督微调->奖励模型训练->强化学习微调的完整RLHF流程,以LLaMA为基础预训练模型,推出ColossalChat,是目前最接近ChatGPT原始技术方案的实用开源项目!

ColossalChat的特点

  • 开源了第一个完整的RLHFpipeline
  • 采用了更多的指令数据,质量更好,范围更大
  • 训练流程集成了Colossal-AI的诸多系统优化
  • 自己采集了更多数据集:训练的英文一共24Mtokens,中文大约30Mtokens,总共约54Mtokens。其中ColossalChat自己收集的数据集英文6M,中文18Mtokens。

ColossalChat的训练流程

ColossalChat开源了基于LLaMA模型,复现训练ChatGPT三个阶段的完整代码,包括SFT模型训练、奖励模型训练和使用RL训练。在获得最终模型权重后,还可通过量化降低推理硬件成本,并启动在线推理服务。ColossalChat能够快速跟进ChatGPT完整RLHF流程复现,离不开AI大模型基础设施Colossal-AI及相关优化技术的底座支持,相同条件下训练速度相比Alpaca采用的FSDP(FullyShardedDataParallel)可提升三倍左右。

Colossal-AI的优化技术

Colossal-AI支持使用无冗余优化器(ZeRO)提高内存使用效率,低成本容纳更大模型,同时不影响计算粒度和通信效率。Gemini支持将优化器状态从GPU显存卸载到CPU内存或硬盘空间,以突破GPU显存容量限制,扩展可训练模型的规模,降低AI大模型应用成本。LoRA方法认为大语言模型是过参数化的,而在微调时,参数改变量是一个低秩矩阵。因此,可以将这个矩阵分解为两个更小的矩阵的乘积。在微调过程中,大模型的参数被固定,只有低秩矩阵参数被调整,从而显著减小了训练所需的参数量,并降低成本。GPTQ量化为降低推理部署成本,Colossal-AI使用GPTQ4bit量化推理。在GPT/OPT/BLOOM类模型上,它比传统的RTN(rount-to-nearest)量化技术能够获得更好的Perplexity效果。相比常见的FP16推理,它可将显存消耗降低75%,只损失极少量的吞吐速度与Perplexity性能。

结语

借鉴开源社区的成功经验,Colossal-AI欢迎各方参与共建,拥抱大模型时代!可通过以下方式联系或参与:1.在GitHub发布issue或提交pullrequest(PR)2.加入Colossal-AI用户微信或Slack群交流3.发送正式合作提案到邮箱youy@comp.nus.edu.sg

本页网址:https://www.xinzhibang.net/article_detail-6617.html

寻求报道,请 点击这里 微信扫码咨询

关键词

ColossalChat ChatGPT GPT-4 RLHF AI大模型 开源

分享至微信: 微信扫码阅读

相关工具

相关文章