新知榜官方账号
2023-07-07 03:58:46
ColossalChat是一个开源的ChatGPT克隆方案,包含约10万条问答的中、英双语数据集,以及完整RLHF流程的类Chat模型复现方案。ColossalChat能够快速跟进ChatGPT完整RLHF流程复现,离不开AI大模型基础设施Colossal-AI及相关优化技术的底座支持。通过ColossalChat,科研人员和中小企业也能独立训练部署自己的会话系统。
生成式AI正以“天”为单位,快速迭代,持续狂飙!然而,OpenAI并未将其开源,它们背后的技术细节有哪些?如何快速跟进、追赶并参与到此轮技术浪潮中?如何降低AI大模型构建和应用的高昂成本?如何保护核心数据与知识产权不会因使用第三方大模型API外泄?作为当下最受欢迎的开源AI大模型解决方案,Colossal-AI率先建立了包含监督数据集收集->监督微调->奖励模型训练->强化学习微调的完整RLHF流程,以LLaMA为基础预训练模型,推出ColossalChat,是目前最接近ChatGPT原始技术方案的实用开源项目!
ColossalChat开源了基于LLaMA模型,复现训练ChatGPT三个阶段的完整代码,包括SFT模型训练、奖励模型训练和使用RL训练。在获得最终模型权重后,还可通过量化降低推理硬件成本,并启动在线推理服务。ColossalChat能够快速跟进ChatGPT完整RLHF流程复现,离不开AI大模型基础设施Colossal-AI及相关优化技术的底座支持,相同条件下训练速度相比Alpaca采用的FSDP(FullyShardedDataParallel)可提升三倍左右。
Colossal-AI支持使用无冗余优化器(ZeRO)提高内存使用效率,低成本容纳更大模型,同时不影响计算粒度和通信效率。Gemini支持将优化器状态从GPU显存卸载到CPU内存或硬盘空间,以突破GPU显存容量限制,扩展可训练模型的规模,降低AI大模型应用成本。LoRA方法认为大语言模型是过参数化的,而在微调时,参数改变量是一个低秩矩阵。因此,可以将这个矩阵分解为两个更小的矩阵的乘积。在微调过程中,大模型的参数被固定,只有低秩矩阵参数被调整,从而显著减小了训练所需的参数量,并降低成本。GPTQ量化为降低推理部署成本,Colossal-AI使用GPTQ4bit量化推理。在GPT/OPT/BLOOM类模型上,它比传统的RTN(rount-to-nearest)量化技术能够获得更好的Perplexity效果。相比常见的FP16推理,它可将显存消耗降低75%,只损失极少量的吞吐速度与Perplexity性能。
借鉴开源社区的成功经验,Colossal-AI欢迎各方参与共建,拥抱大模型时代!可通过以下方式联系或参与:1.在GitHub发布issue或提交pullrequest(PR)2.加入Colossal-AI用户微信或Slack群交流3.发送正式合作提案到邮箱youy@comp.nus.edu.sg
微信扫码咨询
相关工具
相关文章
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49