清华GLM技术团队发布新版开源多语言代码生成模型CodeGeeX2-6B

新知榜官方账号

2023-08-04 10:04:39

清华GLM技术团队发布新版开源多语言代码生成模型CodeGeeX2-6B

清华GLM技术团队发布了新版开源多语言代码生成模型CodeGeeX2-6B,该模型基于ChatGLM2架构加入代码预训练实现,具有更强大的代码能力、更优秀的模型特性、更全面的AI编程助手和更开放的协议。

CodeGeeX2特性

  • 更强大的代码能力:基于ChatGLM2-6B基座语言模型,CodeGeeX2-6B经过了600B代码数据预训练,在代码能力上全面提升,六种编程语言均大幅提升(Python+57%,C+++71%,Java+54%,JavaScript+83%,Go+56%,Rust+321%),在Python上达到35.9%的Pass@1一次通过率,超越规模更大的StarCoder-15B。
  • 更优秀的模型特性:继承ChatGLM2-6B模型特性,CodeGeeX2-6B更好支持中英文输入,支持最大8192序列长度,推理速度较一代CodeGeeX-13B大幅提升,量化后仅需6GB显存即可运行,支持轻量级本地化部署。
  • 更全面的AI编程助手:CodeGeeX插件(VSCode,Jetbrains)后端升级,支持超过100种编程语言,新增上下文补全、跨文件补全等实用功能。结合AskCodeGeeX交互式AI编程助手,支持中英文对话解决各种编程问题,包括且不限于代码解释、代码翻译、代码纠错、文档生成等,帮助程序员更高效开发。
  • 更开放的协议:CodeGeeX2-6B权重对学术研究完全开放,可申请商业使用。

快速使用CodeGeeX2

GLM团队开发了支持多种不同平台的CodeGeeX插件,可以更直接地体验到CodeGeeX2模型在代码生成与补全、添加注释、代码翻译及技术问答方面的能力为开发效率带来的提升。同时,也提供了快速调用CodeGeeX2-6B的方式,如下所示:

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/codegeex2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/codegeex2-6b", trust_remote_code=True, device='cuda')
model = model.eval()

#加入语言标签引导生成相应的语言
prompt = "#language:Python\n#write a bubble sort function\n"
inputs = tokenizer.encode(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_length=256, top_k=1)

#示例中使用greedy decoding,检查输出结果是否对齐
response = tokenizer.decode(outputs[0])
print(response)

多平台推理支持

CodeGeeX2目前支持在多种不同平台上进行推理,包括CPU推理,多卡推理,加速推理等。同时,也支持多精度/量化推理和多GPU推理,甚至可以在Mac上使用MPS后端运行。

fastllm加速推理

可以使用fastllm对CodeGeeX2进行加速,fastllm是目前支持GLM架构的最快开源框架。

本页网址:https://www.xinzhibang.net/article_detail-9234.html

寻求报道,请 点击这里 微信扫码咨询

关键词

CodeGeeX2-6B 多语言代码生成 ChatGLM2

分享至微信: 微信扫码阅读

相关工具

相关文章