新知榜官方账号
2023-07-03 22:26:36
以ChatGPT为代表的AI大模型技术席卷全球的同时,也引起了广泛争议。如今,监管脚步正在快速迫近。6月中旬,斯坦福大学AI研究实验室发布了一项对AI大模型的研究的结果。研究以十个AI大模型为研究对象,评估他们是否达到欧盟AI法案的标准。结果显示,这些顶尖的AI模型均没有达标。斯坦福研究团队在报告中表示:“主要基础模型提供商目前基本上没有遵守这些草案要求。他们很少披露有关其模型的数据、计算和部署以及模型本身的关键特征的足够信息。尤其是,他们不遵守草案要求来描述受版权保护的训练数据的使用、训练中使用的硬件和产生的排放,也不披露如何评估和测试模型的方式。”欧盟AI法案是世界上第一个AI监管相关法案,从被提出开始即引起全球广泛关注,也会影响大多数AI大模型在欧洲的发展前景。
6月14日,欧洲议会以299票赞成、28票反对、93票弃权的表决结果通过了关于人工智能法案的草案。人工智能草案的内容中,包括明确了关于OpenAI和谷歌等模型的义务。法规旨在确保人工智能技术对用户能够保持透明、公平和安全,计划将于2024年生效。来源:斯坦福
在斯坦福大学的研究中,研究团队先从监管草案选取出22项要求,再以是否有意义地使用公众信息作为标准,最终选择出12项评估要求,为每个评估要求配备了5点评分标准。在此基础上,研究人员将这12项要求进行维度划分为四个层次,分别是数据来源、数据处理、模型本身和实践应用。各大AI模型的得分与满分仍有很大差距。主要的问题集中在:版权责任不明确;能源使用报告不均衡;风险缓解方面披露不充分;缺乏评估标准或审计生态系统等等。各家大模型提供商的合规性差异也很大。一些AI大模型公司的得分低于25%(AI21Labs、AlephAlpha、Anthropic)。目前综合得分最高的,是AI大模型开源社区HuggingFace。
最近几个月,大公司的AI发布会同样是证明。在OpenAI的GPT-4和谷歌的PaLM2的发布会上,他们也都没有披露关于数据、评估方式等相关内容。斯坦福团队表示,欧盟所出台的法规具备可行性,目前的AI模型遵守法规要求并非难题。他们在报告中也对欧盟政策制定者、全球政策制定者、模型提供商数方提供建议。比如,AI模型的政策制定者需要在欧盟AI法规的要求下,优先考虑模型的透明度,对于基础模型的开发、使用和性能有关的披露等,这都会提高整个人工智能生态系统的透明度。而对于模型提供商而言,行业标准是比较大的挑战。在AI大模型领域尚没有成型标准前,斯坦福团队也提出了一些实用的建议——比如改善为大模型开发人员提供的文档。“提供商可以而且应该通过模仿最合规的大模型提供商,来提高自身的合规性。”
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16