新知榜官方账号
2023-11-02 00:04:28
微软首席技术官Scott Stein在最近的一次分享中表示,2022年是人工智能最激动人心的一年,但他还自信地表示,2023年才是AI社区最激动人心的一年。微软是OpenAI的主要投资者,OpenAI最近GPT-3.5系列主力模型之一的ChatGPT爆火,Stein的这次发言也牵动了网友敏感的神经:GPT-4要来了?
生成预训练transformer(Generative Pre-trained Transformer,简称GPT)是一种可利用互联网数据进行训练的文本生成深度学习模型,在问答、文本摘要、机器翻译、分类、代码生成和对话式AI领域都有相当出色的表现。2022年7月,OpenAI发布了最先进的文本转图像模型DALLE2。就在几周之后,Stability.AI推出了DALLE-2的开源版本,名为StableDiffusion。两款模型在亮相后均大受好评,也在质量和理解文字描述的能力上展现出可喜的成果。最近,OpenAI又推出名为Whisper的自动语音识别(ASR)模型,带来了优于原有同类模型的稳健性和准确度。
市场对大语言模型有着相当迫切的需求,GPT-3的流行已经证明大家愿意接受GPT-4,同时也对它的准确性、计算优化、更低偏差和更高安全性充满了期待。GPT不出,AI万古如长夜。
在GPT-1之前,大多数自然语言处理(NLP)主要针对分类和翻译等特定任务进行训练,使用的也均为监督学习方法。这类学习方法有两个问题:过度依赖注释数据,而且无法实现任务泛化。GPT-1(1.17亿参数)相关论文《Improving Language Understanding by Generative Pre-Training》发表于2018年,其中提出了一种生成语言模型,能够使用未标记数据进行训练,并在分类和情感分析等特定下游任务上进行微调。GPT-2(15亿参数)论文《Language Models are Unsupervised Multitask Learners》发表于2019年,其中使用的参数更多、训练数据集也更大,语言模型自然进一步提升。GPT-2使用任务调节、零样本学习和零样本任务转换等方式提高了模型性能。GPT-3(1750亿参数)论文《Language Models are Few-Shot Learners》发表于2020年,其模型参数达到了GPT-2的100倍,使用的训练数据集更大,因此能在下游任务上取得更好的效果。GPT-3在故事写作、SQL查询、Python脚本、语言翻译和摘要编写等能力上几乎能够与人比肩,效果惊艳全球AI界。如此出色的表现,离不开其中的上下文学习、少样本、单样本及零样本等技术设置。
在最近的活动中,OpenAI CEO Sam Altman证实了GPT-4模型的发布传闻。GPT-4可能在接下来几个月内推出,市场迫切需求大语言模型。
下面是国外数据培训企业DataCamp对GPT-4模型大小、参数水平以及计算、多模、稀疏性及性能等方面的预测。
以上是DataCamp的预测,我们还不清楚GPT-4的发布日期、模型架构、大小和训练数据集等信息。
随着市场对于大模型的认知逐渐理性和落地,使用大模型的价值也开始凸显,如不要求企业具备海量的数据基础、应用大模型的效果更优、降低AI开发门槛等。很多AI先行者已经在成熟度较高的场景中引入了大模型。大模型为人工智能未来发展带来了全新的可能,未来将如何迸发出新的可能,我们拭目以待。
相关工具
相关文章
推荐
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11