新知榜官方账号
2023-10-27 06:02:12
大模型的透明度问题愈发引起人们的关注。本文将探讨该问题,并介绍斯坦福大学研究人员推出的人工智能评分系统。
斯坦福大学的研究人员推出了一个人工智能评分系统,它被称为基础模型透明度指数,对10个大语言模型的透明度进行评级。评分越高代表该模型越透明。为了得出排名,研究人员根据100项标准对每个模型进行了评估,包括其制造商是否披露其训练数据的来源、所使用的硬件信息、训练所涉及的劳动力以及“下游指标”,这些指标与模型发布后的使用方式有关。
AI公司不愿披露模型信息的原因主要有三个:诉讼、竞争和安全。这些原因导致大模型对于公众来说是一个又一个的黑箱。研究人员敦促AI公司发布尽可能多的大模型的信息,并表示“当透明度下降时,可能会发生不好的事情”。低透明度的模型缺乏有效的监管,最后极有可能酿成恶果。
透明度问题的解决需要AI公司披露更多的模型信息。虽然AI公司不愿披露模型信息的原因有诉讼、竞争和安全等,但这些原因不应成为AI公司不披露模型信息的理由。只有公众越了解这些模型,才能越理解它们可能构成的威胁、它们可能带来的好处或它们可能如何受到监管。
相关工具
相关文章
相关快讯
推荐
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49
国产GLM-4.5把AI价格打到地板价,实测强到离谱!
2025-07-30 09:08
用AI批量生成治愈系漫画,月入2000+
2025-07-29 09:59
千亿市场规模背后,AI短剧商业化迎来爆发期?
2025-07-17 09:19
15个作品涨粉26万!AI历史账号又出王炸案例!
2025-07-09 09:37
亲测真香!这6个AI工具让工作效率翻倍,同事追着问链接
2025-06-17 16:21
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15