如何形象化地理解“AI、大模型、GPT”?

新知榜官方账号

2023-07-05 06:04:34

如何形象化地理解“AI、大模型、GPT”?

近来,关于人工智能(AI)的讨论此起彼伏,其中不可避免地涉及到一些术语和概念,然而用简单易懂的方式向非专业人士解释是非常具有挑战性的。本文通过将AI与人们熟悉的事物进行比较的方式,简要介绍AI相关的原理、进展和意义,同时探讨大模型、GPT等概念的含义。

“咿呀学语、蹒跚学步”vs“涌现”

模型的“涌现”指的是在大量训练数据和复杂模型结构的支持下,模型突然表现出较高的性能和新的能力。当训练样本足够大、算法迭代达到一定阶段时,模型的能力会突然提高。模型的发展过程类似于孩子的学习成长过程。

“读万卷书、行万里路、与万人谈”vs“预训练(Pre-Train)、精调(Fine-Tuning)”

模型的预训练,指的是在大量无标签数据上训练模型以学习基本知识。这就像人在婴儿阶段以及从小学到高中阶段进行大量学习一样。精调指的是在特定任务上,利用有标签数据对模型进行微调,以便更好地适应特定任务。这就像人在阅读了大量书籍后,还需要进行实践,从实践中获得反馈并成长。

“娇生惯养”vs“过拟合”

过拟合意味着模型将训练样本中的特殊情况误认为是普遍情况。同样,娇生惯养(过拟合:over-fitting)导致的脆弱心智(模型)在面临现实世界中的各种挫折时,往往无法正确应对(预测不准确、泛化能力差),从而很容易导致不幸的结果。

“职业教育/基础教育”vs“大模型、小模型”

GPT这样的模型之所以称为大模型,是因为训练数据集规模大、训练出的模型size大,也指的是模型有广泛的能力,好像是“上知天文、下知地理”。读万卷书,就是大模型,发展出通用智能。只读菜谱、只练厨技,就是小模型,发展特定技能。

“脑容量、字典、书籍”vs“大模型”

模型的大小就像动物的脑容量一样,较大的脑容量通常意味着更高的智慧。可以说,足够大的模型,就能涵盖足够多的知识。大模型,就有大智慧。

“终身学习”vs“机器学习”

机器之所以这么厉害、AI之所以这么强大,就是因为人家在不断学习啊。更何况,机器的记忆力、学习速度,可是人的成百上千倍。懒惰的人类,要努力了啊!

“人脑、道”vs“可解释性”

可以说,人类用原理不明的大脑,开发出原理不明的大模型。对于AI来说,也是如此。太简单的模型,的确不会有强大的能力。

本页网址:https://www.xinzhibang.net/article_detail-5662.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI 大模型 GPT

分享至微信: 微信扫码阅读

相关工具

相关文章