人工智能语言模型被滥用的三种方式

新知榜官方账号

2023-07-03 21:44:34

人工智能语言模型是目前科技领域最耀眼、最令人兴奋的东西。但它们也会带来一个重大的新问题:它们非常容易被滥用,并被部署为强大的网络钓鱼或诈骗工具。不需要编程技能。更糟糕的是,目前还没有已知的解决办法。科技公司争先恐后地将这些模型嵌入到大量的产品中,以帮助人们做一切事情,从预订旅行到安排日程,再到在会议中做笔记。但这些产品的工作方式--接收用户的指示,然后在互联网上寻找答案--创造了大量的新风险。

越狱为ChatGPT、Bard和Bing等聊天机器人提供动力的人工智能语言模型产生的文本,读起来就像人类所写。它们遵循用户的指示或“提示”(prompt),然后根据其训练数据,预测最可能跟在前一个词后面的词,从而生成一个句子。但正是这些模型如此优秀的原因——它们可以遵循指令——也使得它们容易被误用。这可以通过“提示注入”来实现,在这种情况下,有人使用提示来指导语言模型忽略之前的指示和安全护栏。

协助诈骗和网络钓鱼有一个比越狱更大的问题摆在我们面前。3月底,OpenAI宣布,它允许人们将ChatGPT集成到浏览和与互联网交互的产品中。初创公司已经在利用这一功能开发虚拟助手,使其能够在现实世界中采取行动,比如预订机票或在人们的日历上安排会议。允许互联网成为ChatGPT的“眼睛和耳朵”使得聊天机器人极易受到攻击。

Tramèr与来自谷歌、Nvidia和创业公司RobustIntelligence的研究团队合作发现,AI语言模型在部署之前就容易受到攻击。大型人工智能模型是根据从互联网上抓取的大量数据进行训练的。目前,科技公司只是相信这些数据不会被恶意篡改,Tramèr说。但研究人员发现,有可能在训练大型人工智能模型的数据集中“投毒”。只需60美元,他们就能购买域名,并在其中填入他们选择的图像,然后将其录入大型数据集。

本页网址:https://www.xinzhibang.net/article_detail-5056.html

寻求报道,请 点击这里 微信扫码咨询

关键词

人工智能 语言模型 滥用

分享至微信: 微信扫码阅读

相关工具

相关文章