大厂混战AI大模型,云计算谁最行?价值星球Planet关注

新知榜官方账号

2023-07-05 05:30:50

需求分析能力

需求分析能力是指能够从用户、市场、行业等多方面发现和定义产品的需求,以及将需求转化为可执行的产品方案的能力。

背景

在OpenAI推出ChatGPT之后,云厂商们也开始扎堆于其中,因为随着AI模型的不断优化,相关算力的要求也在不断提升,这不仅给云厂商们带来了考验,同样的,也带来了潜藏其中的机遇。那么,国内云市场的竞争格局是否会在ChatGPT的影响之下迎来一定变化呢?

ChatGPT在云计算中的应用

近来随着ChatGPT的关注度持续提升,微软正式推出了内置ChatGPT的搜索引擎,谷歌则发布了Bard,国内互联网厂商百度、阿里、京东、360等,也都密集宣布大模型技术进展以及类ChatGPT项目计划。近期,阿里云大模型“通义千问”启动邀测。据介绍,“通义千问”是一个专门响应人类指令的大模型,类似于百度的“文心一言”和ChatGPT。相较于ChatGPT,阿里云的“通义千问”目前仅能生成文本,暂不支持图片以及视频。不过“通义千问”却将用户日常的对话场景进行了细分,以增强可玩性。

随着云厂商们加速对ChatGPT的布局,未来国内云市场的竞争格局是否会被重新改写呢?

ChatGPT对云厂商的影响

AI模型的不断优化对算力提出了更高的要求。以ChatGPT为例,2018年OpenAI在训练GPT-1时,所用到的参数数量和数据训练量分别为1.17亿和5GB。但在2020年训练GPT-3时,以上两项数字则分别增长到1750亿和45TB(1TB=1024GB),GPT-4的训练参数量更是高达1.6万亿。另据OpenAl发布的相关数据显示,训练13亿参数的GPT-3XL模型一次消耗的算力约为27.5PF-days,训练1750亿参数的完整GPT-3模型则会消耗算力3640PF-days(即每秒一千万亿次计算,要运行3640个整日)。

由此,这些国内外云计算大厂具备了天然的先发优势,他们有资金、有技术、有算力资源,甚至还有应用场景。随着云厂商们加速对ChatGPT的布局,未来国内云市场的竞争格局是否会被重新改写呢?

各大云厂商的动机

放大到全行业来看,目前国内不少云厂商结合自身业务优势布局“ChatGPT”,本质上也是为了能够抢占未来增量市场所产生的市场份额。比如说,以ChatGPT为代表的人工智能对计算机性能、能耗、吞吐和延迟等方面要求较高,传统通用服务器的负载能力有限,无法承受高负载的人工智能应用,需要更适合深度学习训练场景的AI服务器方可完成。随着后续算力的持续增长,自然语言处理和图像、视频等AI模型的深入发展,AI服务器将被更广泛使用,IDC此前就曾预估2023年全球AI服务器的市场规模或将达到211亿美元。

而做网络安全出身的360云自然在如何构建网络安全上,更具优势。当然,有的云厂商做类“ChatGPT”模型,更多的是想丰富自身的云产品生态系统。

ChatGPT对云厂商竞争格局的影响

ChatGPT难以改变现有云厂商们的竞争格局。其原因在于,从ChatGPT本身来看,行业仍存在一定泡沫。目前市场对ChatGPT的能力存在过分高估,在实际很多场景中均难以落地。

ChatGPT对于形成应用闭环极为重要。或许这正是以阿里、百度、腾讯、京东、360为代表的国内云服务参与者纷纷将ChatGPT视为打破行业格局“利器”的原因。借助这些AI大模型,打破了开发层和应用层的壁垒,用户只需向作为中间层的AI提出需求即可自动生产代码,而无需理解其中含义。

当捆绑服务无法为云厂商带来利润时,行业又重新回归到IaaS的竞争。而IaaS层的产品高度同质化又决定了云厂商们谁能获取更多的客户,谁就能获取更大的市场份额。而各家云厂商的AI大模型,实则是在帮助他们形成新的生态应用闭环。借助这些AI大模型,能够轻易触达更多用户,用户在免费使用过程中就会不自觉成为潜在的云厂商客户。

本页网址:https://www.xinzhibang.net/article_detail-5654.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI大模型 云计算 ChatGPT

分享至微信: 微信扫码阅读

相关工具

相关文章