警示AI风险的公开信引发热议,数千名科技大佬和AI专家联名呼吁暂停比GPT-4更强的人工智能系统的训练

新知榜官方账号

2023-09-26 17:04:57

警示AI风险的公开信引发热议

当全球都在为AI的进化而欢呼雀跃,一封警示AI风险的公开信在硅谷科技圈广为流传。

生命未来研究所(FutureofLife)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。

该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命,其在信中提到:我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。

截止目前,图灵奖得主YoshuaBengio、马斯克、苹果联合创始人SteveWozniak、StabilityAI创始人EmadMostaque等上千名科技大佬和AI专家已经签署公开信。

大佬联名呼吁:暂停比GPT-4更强的AI

公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。

在暂停的6个月内,人工智能实验室和独立专家应共同制定和实施一套先进的共享安全协议,来规范人工智能设计和开发。协议完成后,应该由独立的外部专家进行严格的的审查和监督。这些协议应该确保遵守协议的系统的安全性。

重写文章:警示AI风险的公开信引发热议

近日,生命未来研究所发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命,呼吁人工智能研究和开发者共同制定和实施一套先进的共享安全协议,由独立的外部专家进行严格的审查和监督。数千名科技大佬和AI专家已经签署了这份公开信,呼吁大家不要冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。

在公开信中,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。在暂停的6个月内,人工智能实验室和独立专家应共同制定和实施一套先进的共享安全协议,来规范人工智能设计和开发。协议完成后,应该由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统的安全性。

同时,呼吁人工智能开发者与政策制定者合作,大幅加快开发强大的AI治理系统。系统至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统,帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。

GPT-5已在路上

据预测,GPT-5将在GPT-4的基础上,带来一系列增强的性能,比如在多态交互、创造力和适应复杂任务方面的全面超越。这让人们更加重视对人工智能的风险和治理。

本页网址:https://www.xinzhibang.net/article_detail-13836.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI风险 公开信 GPT-4 人工智能系统 暂停训练 科技大佬

分享至微信: 微信扫码阅读

相关工具

相关文章