微软人工智能红队揭露系统漏洞应对监管要求

新知榜官方账号

2023-08-10 01:32:32

微软人工智能红队揭露系统漏洞应对监管要求

人工智能巨大的潜在风险正在不断浮现。在监管脚步逼近之际,如今美国的科技巨头们,不得不在激烈的AI竞赛中分神应对。美国时间8月7日,微软在其官网发文,公布了其内部人工智能“红队”的相关细节。该团队于2018年正式成立,由一群跨学科专家组成,目的是揭露人工智能系统存在的漏洞。这一举措意在应对如今的监管要求。

7月下旬,包括微软在内的7家人工智能领域巨头,在白宫做出的集体承诺中就提及,在发布AI模型之前,将对其进行内部和外部的安全测试,即“红队测试”。“红队”,就是指对模型进行渗透测试的攻击方。在AI的“红队测试”中,AI作为防守方,而红队成员则需要模拟现实世界中可能存在的对手及其工具、策略和过程,对AI进攻,以识别风险并改进系统的整体安全状态。

具体而言,微软将AI红队的关键经验,归结为如下五点:

  1. AI红队更具扩张性:应对的安全问题更多更复杂,还需要探索公平性问题、有害内容等。
  2. AI红队需要同时关注恶意和善意的使用者:除恶意对手会利用漏洞破坏AI系统,普通用户在交互过程中也会产生问题和有害内容。
  3. AI系统在不断发展:AI系统的变化速度比传统应用更快,需要进行多轮红队测试,建立系统化、自动化的测量和监测系统。
  4. AI系统红队测试需要多次尝试:生成式人工智能系统的结果是概率性的,因此可能需要多次尝试,才能发现问题。
  5. 减少AI问题需要深度防御:修复通过AI红队发现的故障需要深度防御方法,包括使用分类器标记潜在的有害内容,使用元提示符指导行为以限制会话漂移等。

微软人工智能红队的工作方式与传统红队有显著差异。微软人工智能红队创始人库马尔表示:“我们在大型语言模型上看到了一些新颖的攻击——只需要一个满嘴脏话的青少年,或是一个使用浏览器的休闲用户,我们不想忽视它。”

库马尔指出,提出这种区别需要时间,AI红队的许多早期工作仍然与发布传统的安全工具有关。微软与MITRE等合作伙伴共同开发并发布了对抗性机器学习威胁矩阵(AdversarialMachineLearningThreatMatrix),供安全分析师检测、响应和修复AI威胁。这是微软人工智能红队的发展历程。

本页网址:https://www.xinzhibang.net/article_detail-9641.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 微软 红队测试

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯