清华大学NLP团队公开中英双语对话模型ChatGLM-6B

新知榜官方账号

2023-08-06 05:08:30

清华大学NLP团队公开中英双语对话模型ChatGLM-6B

3月22日消息,在ChatGPT的核心团队中,不乏清华大学毕业进入OpenAI的开发者,就在GPT-4发布的同一天,清华大学顶尖的NLP团队,也公开了自研的类ChatGPT的大模型——中英双语对话模型ChatGLM-6B,初具问答和对话功能,现已开启邀请制内测(内测申请网址http://chatglm.cn),后续还会逐步扩大内测范围。

官方博客中提到,这是一个初具问答和对话功能的千亿中英语言模型,并针对中文进行了优化。该模型基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGLM相同的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B虽然规模不及千亿模型,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。

ChatGLM-6B的特点

  • 充分的中英双语预训练:ChatGLM-6B在1:1比例的中英语料上训练了1T的token量,兼具双语能力。
  • 优化的模型架构和大小:吸取GLM-130B训练经验,修正了二维RoPE位置编码实现,使用传统FFN结构。6B(62亿)的参数大小,也使得研究者和个人开发者自己微调和部署ChatGLM-6B成为可能。
  • 较低的部署门槛:FP16半精度下,ChatGLM-6B需要至少13GB的显存进行推理,结合模型量化技术,这一需求可以进一步降低到10GB(INT8)和6GB(INT4),使得ChatGLM-6B可以部署在消费级显卡上。
  • 更长的序列长度:相比GLM-10B(序列长度1024),ChatGLM-6B序列长度达2048,支持更长对话和应用。
  • 人类意图对齐训练:使用了监督微调(SupervisedFine-Tuning)、反馈自助(FeedbackBootstrap)、人类反馈强化学习(RLHF)等方式,使模型初具理解人类指令意图的能力。

ChatGLM-6B具备了一定条件下较好的对话与问答能力。但ChatGLM-6B也有相当多已知的局限和不足,包括模型容量较小、可能会产生有害说明或有偏见的内容、较弱的多轮对话能力、英文能力不足和易被误导等。

该团队称,一直在探索、尝试和努力,GLM系列模型取得了一丝进展,但离国际顶尖大模型研究和产品(比如OpenAI的ChatGPT及下一代GPT模型)都还有明显差距。中国大模型研究在原创算法、AI芯片和产业上的追赶与突破需要大家的一起努力,更需要我们对下一代AI人才的培养与锻炼。

本页网址:https://www.xinzhibang.net/article_detail-9370.html

寻求报道,请 点击这里 微信扫码咨询

关键词

ChatGLM-6B 中英双语对话模型 清华大学NLP团队

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯

ChatGPT,Midjourney,文心一言,文心一格,bing新必应,Stable diffusion,文心一格,稿定设计,墨刀AI,mastergo,Adobe Firefly

短视频知识人物影响力榜

查看更多

新知榜独家 {{faTime.effecttime}}发布

总榜

人物 领域 粉丝数 影响力指数

{{item.manIndex}}

{{item.nickname}} {{item.field}}

{{item.fs}}

{{item.effect}}