28国签署新宣言推动AI风险管控议程

新知榜官方账号

2023-11-03 06:00:24

当地时间11月1日,英国主办的首届全球人工智能(AI)安全峰会在英国布莱切利公园拉开帷幕。峰会第一天,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI。

宣言重点关注两个方面,一是识别共同关注的AI安全风险,建立对这些风险的共同科学和基于证据的理解;二是各国制定各自基于风险的政策,以确保此类风险的安全,酌情开展合作。

宣言提到,为推进这一议程,各国决定支持一个具有国际包容性的前沿AI安全科学研究网络,该网络包含并补充现有和新的多边、诸边与双边合作,包括通过现有的国际论坛和其他相关举措,为政策制定和公共利益提供最佳的科学支持。

会议还确认了下一届峰会的主办方。英国数字部长米歇尔·唐兰(MichelleDonelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。

我国科技部副部长吴朝晖在开幕式上称,中国政府愿意加强在AI安全方面的合作,帮助建立一个国际治理框架,秉持相互尊重、平等互利的原则,“国家不分大小,都享有平等开发和利用人工智能的权利……我们呼吁全球合作,分享人工智能知识,并以开源方式向公众提供人工智能技术。”

美国商务部长吉娜·雷蒙多(GinaMarieRaimondo)称,美国将成立一个AI安全研究所,以评估所谓“前沿”AI模型的已知和新出现的风险。她在会上发表演讲时称:“我几乎肯定会呼吁学术界和工业界的许多观众加入这个联盟……我们无法单独做到这一点,私营部门必须挺身而出。”

美国副总统卡玛拉·哈里斯(KamalaHarris)当天在伦敦发表演讲,介绍美国政府对AI的应对措施。她的演讲时机受到一些英国高管和立法者的质疑,他们认为哈里斯似乎抢了AI安全峰会的风头。

英国政府还在峰会上宣布,将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,为研究人员提供比英国目前最大的公共AI计算工具容量大30倍以上的资源。

前沿AI模型可能带来的风险是不可忽视的,需要立法者、科技企业和国际社会共同监督与合作,确保这项技术能够负责任地造福于所有人。

本页网址:https://www.xinzhibang.net/article_detail-18736.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 安全 风险管控

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯