微软计划通过自研对话式AI来减少对于OpenAI的依赖

新知榜官方账号

2023-09-29 01:22:54

据TheInformation报道,微软这厢高调将GPT-4融入自家各种招牌产品里,那厢背地里却已经开始密谋PlanB,想要通过自研对话式AI(人工智能)大语言模型,来做到媲美OpenAI模型的表现。

据一名现任员工和另一位最近离开微软的人透露,最近几周,领导微软1500名研究人员的PeterLee指示他们中的许多人开发对话式AI。这些AI可能表现不及OpenAI的大模型那么好,但胜在规模较小,运营成本也低得多。这些知情人士说,微软旗下搜索引擎必应(Bing)的产品组正试图将微软的自研模型整合到必应聊天(BingChat)中。一位微软现任员工称,微软研究人员正在分配他们大约2000个GPU中的大部分,用于制作更低成本、规模更小的模型。

01.GPT-4太烧钱,微软正在制定PlanB

微软将AI纳入其软件的推动几乎完全取决于OpenAI,以换取使用其顶尖技术的权利。但随着运行先进AI模型的成本上升,TheInformation报道称,微软研究人员和产品团队正在制定PlanB。随着AI成本的飙升,微软和谷歌等其他大型AI开发人员正想办法从对话式AI软件和运行它的服务器芯片中省钱。此前微软已经承诺向OpenAI投资100多亿美元,部分用于获取其知识产权。尽管有这项投资,但微软在推出OpenAI支持的功能时仍然必须控制成本,包括自动生成PowerPoint演示文稿、转录Teams会议以及根据客户告诉他们想要查看的应用程序创建Excel电子表格的功能。

02.不指望开发GPT-4,想增加更多谈判筹码

微软的研究小组对开发像GPT-4这样的大型AI没有幻想。该团队没有与OpenAI相同的计算资源,也没有大批人类评论员来反馈他们的大语言模型如何回答问题,以便工程师可以改进这些问题。不可否认,OpenAI、谷歌以及周一从亚马逊云科技(AWS)获得40亿美元投资的另一家明星大语言模型创企Anthropic,在开发先进大语言模型方面都领先于微软。但微软可能能够以成本的一小部分,在构建模仿OpenAI软件质量的AI模型的竞赛中竞争,正如微软在6月份发布的一个称为Orca的内部模型时所表明的那样。大语言模型是ChatGPT等对话式AI的基础。

03.投入上千块GPU‍,开发更低成本的“精简”模型

微软研究人员正在分配大量GPU用于制作更低成本、规模更小的模型,这些模型可以用更少的计算资源产生类似于OpenAI的大型模型的结果。微软的研究人员将GPT-4产生的数百万个答案输入一个更基本的开源模型,以教它模仿GPT-4。最后,研究人员表示,Orca模型在一系列任务上的表现,比他们训练的开源模型基本版MetaLlama2要好得多,几乎和GPT-4一样,例如解释如何解决数学问题或总结会议记录。他们称,在某些情况下,Orca与OpenAI的ChatGPT的免费版一样好。Orca能够用不到GPT-4使用的1/10的计算能力做到这一点。在本月发表的另一篇论文中,微软研究人员公布了Phi,他们完全根据“教科书质量”信息对其进行了训练。Phi的参数量不到GPT-4参数量的1%。研究表明,由于高质量的训练数据,Phi在数学和逻辑问题上精通的开源模型是其规模的5倍。

04.结语:微软与OpenAI裂痕渐显,正积极接纳其他大模型伙伴

微软正在与Databricks合作,向Azure客户销售软件,以便他们可以使用开源大语言模型而不是OpenAI的闭源应用程序来构建应用程序。微软还通过Azure提供其他大语言模型,包括Meta的Llama2,对冲了对OpenAI的赌注。据TheInformation此前报道,微软正在与Databricks合作,向Azure客户销售软件,以便他们可以使用开源大语言模型而不是OpenAI的闭源应用程序来构建应用程序。华盛顿大学教授、向AI开发人员销售软件的SnorkelAI的联合创始人AlexRatner谈道:“越来越多的企业正在运行小模型。”GPT-4是“吸引眼球的东西,可以作为你开始的基础......但当涉及到微软为其产品提供动力所需的专业用例时,我们将继续看到这种多样化。”

本页网址:https://www.xinzhibang.net/article_detail-14258.html

寻求报道,请 点击这里 微信扫码咨询

关键词

微软 OpenAI AI 大语言模型 对话式AI 模型

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯