微软泄露“天机”?ChatGPT仅有200亿大模型参数?

新知榜官方账号

2023-11-02 02:01:10

微软泄露“天机”?ChatGPT仅有200亿大模型参数?

最近,微软发布的论文引起了全球关注,因为论文中泄露了“天机”:ChatGPT仅有200亿大模型参数。这一消息在大模型圈引起了轩然大波,许多人开始猜测这是不是OpenAI开源的“前菜”,因为早在今年5月,路透社就曾爆料OpenAI准备开源新大语言模型。

除了泄露机密,这篇论文本身也值得一看。论文首次提出了一种用扩散模型做代码生成的编码-解码架构:CODEFUSION。CODEFUSION主要包括编码器、解码器、去噪器以及ClassificationHead。为了生成语法正确的代码,CODEFUSION采用了扩散模型,将自然语言输入编码为连续表示,然后将其附加条件输入Diffusion模型中进行迭代去噪,最终生成语法正确的代码。

论文还对CODEFUSION进行了Python、Bash和Excel条件格式化(CF)规则三个语言任务的评估。结果显示,CODEFUSION性能与同200亿参数的GPT-3.5-turbo相近,而且还生成更加多样化的代码。相比于自动回归模型,CODEFUSION生成更加多样化的候选代码,同时也能生成更多语法正确的代码。

总之,微软最近发布的这篇论文泄露了“天机”,并介绍了一种用扩散模型做代码生成的编码-解码架构:CODEFUSION。这一消息引起了全球关注,许多人开始猜测这是不是OpenAI开源的“前菜”。论文的内容本身也值得一看,因为它首次提出了一种用扩散模型做代码生成的编码-解码架构。

本页网址:https://www.xinzhibang.net/article_detail-18570.html

寻求报道,请 点击这里 微信扫码咨询

关键词

微软 ChatGPT 大模型参数

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯