新知榜官方账号
2023-10-27 06:02:12
大模型的透明度问题愈发引起人们的关注。本文将探讨该问题,并介绍斯坦福大学研究人员推出的人工智能评分系统。
斯坦福大学的研究人员推出了一个人工智能评分系统,它被称为基础模型透明度指数,对10个大语言模型的透明度进行评级。评分越高代表该模型越透明。为了得出排名,研究人员根据100项标准对每个模型进行了评估,包括其制造商是否披露其训练数据的来源、所使用的硬件信息、训练所涉及的劳动力以及“下游指标”,这些指标与模型发布后的使用方式有关。
AI公司不愿披露模型信息的原因主要有三个:诉讼、竞争和安全。这些原因导致大模型对于公众来说是一个又一个的黑箱。研究人员敦促AI公司发布尽可能多的大模型的信息,并表示“当透明度下降时,可能会发生不好的事情”。低透明度的模型缺乏有效的监管,最后极有可能酿成恶果。
透明度问题的解决需要AI公司披露更多的模型信息。虽然AI公司不愿披露模型信息的原因有诉讼、竞争和安全等,但这些原因不应成为AI公司不披露模型信息的理由。只有公众越了解这些模型,才能越理解它们可能构成的威胁、它们可能带来的好处或它们可能如何受到监管。
微信扫码咨询
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49