都在抢发AI大模型,谁在关注模型安全?

新知榜官方账号

2023-07-05 00:56:33

都在抢发AI大模型,谁在关注模型安全?

4月份,大模型如雨后春笋般涌现,成为所有活动的主题。当所有目光集中在企业最新的技术动态、产品质量,以及可能带来的商业革命时,另一方面,安全伦理也是这场“AI实验”的重要且关键主题。在享受技术突破带来发展红利的同时,要如何应对安全问题呢?

B端产品经理需要更多地考虑产品的功能性、稳定性、安全性、合规性等,而C端产品经理需要更多地考虑产品的易用性。从专业产品经理与市场的角度来看,需要重新审视这篇文章。AI大模型的出现,不仅带来了技术突破和商业机遇,也带来了安全和可信度的问题。AI大模型的发展需要更多的关注和规范,同时也需要更多的生态合作。

大模型来临,AI安全迎来新挑战

大模型带来的关于伦理道德、数据安全和可信度的讨论,可能来的比所有人想象的都更早。AI大模型同样也是如此,关于伦理道德的讨论只是其中的一个方面,这背后所有与人直接相关的,比如数据安全问题、AI的可信度问题、隐私保护问题等等,都在冲撞着当前的数据治理格局。AI大模型面临的一个重要考题是数据安全。ChatGPT等AI大模型通过“人类反馈强化学习”来不断进化,这也要求类ChatGPT产品需要不停地收集用户使用数据。但这些数据回到后台之后,并没有进行脱敏处理,也无法被删除,而是进一步被纳入到了模型训练的数据库中,并随时面临可能被泄露的风险。数据安全是AI大模型面临的一个重要考题。

AI安全,任重道远

无论是产业界还是相关的监管机构,其实都早已意识到了AI安全问题,并且也都在积极寻求改变。比如OpenAI就在积极提高其预训练大模型的安全性。除了在模型阶段介入新技术之外,更多公司开始从数据阶段就将隐私考虑了进去,比如数据合成和隐私计算就是两种有效的解决方案。除此之外,欧盟和联合国教科文组织也在积极推进相关法案和建立伦理标准。作为互联网时代的安全企业,360周鸿祎也提到了AI安全挑战。整体上,AI大模型与传统产业、安全、社会伦理等方面的冲突需要整个社会的共同努力去解决。

本页网址:https://www.xinzhibang.net/article_detail-5571.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI 安全 大模型

分享至微信: 微信扫码阅读

相关文章