大模型的透明度问题

新知榜官方账号

2023-10-27 06:02:12

概述

大模型的透明度问题愈发引起人们的关注。本文将探讨该问题,并介绍斯坦福大学研究人员推出的人工智能评分系统。

人工智能评分系统

斯坦福大学的研究人员推出了一个人工智能评分系统,它被称为基础模型透明度指数,对10个大语言模型的透明度进行评级。评分越高代表该模型越透明。为了得出排名,研究人员根据100项标准对每个模型进行了评估,包括其制造商是否披露其训练数据的来源、所使用的硬件信息、训练所涉及的劳动力以及“下游指标”,这些指标与模型发布后的使用方式有关。

AI公司不愿披露模型信息的原因

AI公司不愿披露模型信息的原因主要有三个:诉讼、竞争和安全。这些原因导致大模型对于公众来说是一个又一个的黑箱。研究人员敦促AI公司发布尽可能多的大模型的信息,并表示“当透明度下降时,可能会发生不好的事情”。低透明度的模型缺乏有效的监管,最后极有可能酿成恶果。

结论

透明度问题的解决需要AI公司披露更多的模型信息。虽然AI公司不愿披露模型信息的原因有诉讼、竞争和安全等,但这些原因不应成为AI公司不披露模型信息的理由。只有公众越了解这些模型,才能越理解它们可能构成的威胁、它们可能带来的好处或它们可能如何受到监管。

本页网址:https://www.xinzhibang.net/article_detail-18090.html

寻求报道,请 点击这里 微信扫码咨询

关键词

大模型 人工智能 透明度

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯