美国政府获得八家人工智能公司承诺负责任开发AI

新知榜官方账号

2023-10-12 10:57:17

近日,白宫网站内容显示,美国政府再次获得八家领先人工智能公司承诺,他们将负责任地开发人工智能。正如白宫新闻稿所说,这些公司的承诺强调了人工智能未来的三个基本原则:安全、可靠和值得信赖,标志着向开发负责任的人工智能迈出了关键一步。这并不是美国政府第一次获得AI公司承诺。今年7月,美国拜登政府在白宫召集亚马逊、Anthropic、谷歌等七家AI头部公司,获得他们的自愿性承诺以发展负责任人工智能。

受访专家表示,安全、可靠和值得信赖或将得到更多企业实践,逐渐发展成为美国AI企业的行业共识。与此同时,全球人工智能治理范围内,安全可信已成为全球人工智能治理的基本目标。

美政府再获八家公司自愿性承诺当地时间9月12日,美国拜登政府再次获得八家领先人工智能公司发展负责任AI的自愿性承诺。据白宫新闻稿介绍,美国商务部长吉娜·雷蒙多(GinaRaimondo)、白宫办公厅主任杰夫·齐恩茨(JeffZients)和政府高级官员在白宫召集更多行业领袖,获得八家公司的第二轮自愿性承诺,这八家公司分别为Adobe、Cohere、IBM、Nvidia、Palantir、Salesforce、ScaleAI和Stability,而这将有助于推动AI技术的安全、可靠和值得信赖。

企业的自愿性承诺何以成为当前美国治理人工智能的重要抓手?北京航空航天大学法学院副教授赵精武对21世纪经济报道记者分析,AI技术的更新迭代周期越来越短,即便是企业可能也无法准确预测到相关技术的未来发展方向,更遑论监管机构。从促进技术创新以及保障监管政策与技术发展的同步性考量,以企业承诺的方式作为自律监管要求可能更符合AI治理需求,并且更贴合产业实践的前沿问题。

北京大成律师事务所高级合伙人邓志松认为可能出于两点考虑,一是正式立法程序可能耗费较长时间,进程中也难免面临各方博弈与掣肘,相比之下承诺是更为便捷、灵活的方式,可以更好地适应AI行业的高速发展态势,管控不断变化的风险。二是AI监管专业性极强,政府监管措施的有效落地与企业的配合密不可分,柔性措施能够更好地保证企业的合作态度。同时他表示,柔性的承诺与更为正式的行政命令或法律法规并非截然对立。

与首批七家人工智能公司一样,这八家公司承诺保证AI在安全、可靠和值得信赖三方面将采取措施:在向公众推出产品之前确保其安全。承诺在发布人工智能系统之前对其进行内部和外部安全测试。这项测试将部分由独立专家进行,旨在防范一些最重要的人工智能风险来源,例如生物安全、网络安全及更广泛的社会影响。承诺在整个行业以及与政府、民间社会和学术界分享有关管理人工智能风险的信息。这包括最佳安全实践、有关试图规避保障措施的信息以及技术合作。将构建安全的系统放在首位。承诺投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重。这些模型权重是人工智能系统最重要的部分,公司一致认为,仅在有意且考虑到安全风险时才发布模型权重。致力于促进第三方发现和报告其人工智能系统中的漏洞。通过强大报告机制促使快速发现并修复问题。赢得公众信任。致力于开发强大的技术机制,如水印系统,以确保用户知道内容何时由人工智能生成。这一行动使人工智能的创造力和生产力得以蓬勃发展,同时减少了欺诈和欺骗的危险。承诺公开报告其人工智能系统的功能、局限性以及适当和不适当使用的领域。这些报告将涵盖安全风险和社会风险,例如对公平和偏见的影响。承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私。致力于开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。如癌症预防、缓解气候变化,以及介于两者之间的许多事情。

赵精武提示,考虑AI技术本身就存在广泛的应用场景,在传统业务模式与AI技术结合的背景下,为了避免出现“技术安全事故”“算法歧视”“技术规训人类”等问题,需要在相应的应用场景下适用“安全、保障、可信”原则。可以看到的是,安全、可靠和值得信赖,正逐渐向AI产业更广阔处和更深处延伸,以推动美国人工智能向负责任发展。

一个值得关注的问题,自愿性承诺如何落实?又该如何规制?“企业的承诺或有可能通过科技伦理审查事项、企业社会责任等方式作为软法治理工具予以确保实施,并且,在具体的司法实践中,因企业未履行承诺导致侵权损害等结果时,未履行承诺的行为可能会被法院视为‘存在过错’,进而要求企业承担侵权责任。”赵精武说道。邓志松提示,承诺虽是自愿,但其约束力仍不容小觑。一方面,如果企业未能遵守其承诺,将可能面临声誉受损、消费者信任度下降等问题,将给企业经营发展带来极大的负面效应。另一方面,自愿承诺并不意味着企业违法行为的绝对豁免,如果企业违背承诺所实施的行为涉嫌违法违规,政府依然可以通过行政执法或司法手段对其进行规制。随着AI技术的快速发展,安全、可靠和值得信赖的原则或许将得到更多企业实践,成为行业共识。

“这一原则很可能会成为美国乃至更大范围内AI企业的行业共识。”邓志松说道。在他看来,企业、监管、受众等各类主体均有充分动力推动落地。值得关注的是,安全可信已成为全球AI治理的基本目标,各国人工智能相关法规均有所体现。欧盟在《人工智能法案》提出“安全、可信和有伦理的人工智能”这一治理目标,并且在2020年的《人工智能白皮书》、2019年的《人工智能道德准则》等规范性文件中也反复提及“可信赖的人工智能”。此外,我国《生成式人工智能服务管理暂行办法》第四条提及提供和使用生成式AI,应该尊重社会公德和伦理道德;第六条提及“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”。

本页网址:https://www.xinzhibang.net/article_detail-16471.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 负责任 安全可靠

分享至微信: 微信扫码阅读

相关工具

相关文章