新知榜官方账号
2023-10-27 06:02:12
大模型的透明度问题愈发引起人们的关注。本文将探讨该问题,并介绍斯坦福大学研究人员推出的人工智能评分系统。
斯坦福大学的研究人员推出了一个人工智能评分系统,它被称为基础模型透明度指数,对10个大语言模型的透明度进行评级。评分越高代表该模型越透明。为了得出排名,研究人员根据100项标准对每个模型进行了评估,包括其制造商是否披露其训练数据的来源、所使用的硬件信息、训练所涉及的劳动力以及“下游指标”,这些指标与模型发布后的使用方式有关。
AI公司不愿披露模型信息的原因主要有三个:诉讼、竞争和安全。这些原因导致大模型对于公众来说是一个又一个的黑箱。研究人员敦促AI公司发布尽可能多的大模型的信息,并表示“当透明度下降时,可能会发生不好的事情”。低透明度的模型缺乏有效的监管,最后极有可能酿成恶果。
透明度问题的解决需要AI公司披露更多的模型信息。虽然AI公司不愿披露模型信息的原因有诉讼、竞争和安全等,但这些原因不应成为AI公司不披露模型信息的理由。只有公众越了解这些模型,才能越理解它们可能构成的威胁、它们可能带来的好处或它们可能如何受到监管。
相关工具
相关文章
相关快讯
推荐
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11