生成式预训练transformer模型(GPT)的可信度评估

新知榜官方账号

2023-10-20 01:22:23

背景

伊利诺伊大学香槟分校与斯坦福大学、加州大学伯克利分校、人工智能安全中心和微软研究院共同发布了一个大型语言模型(LLMs)综合可信度评估平台,并在最近的论文《DecodingTrust:全面评估GPT模型的可信度》中进行了介绍。根据我们的评估,我们发现了以前未曾公布过的与可信度有关的漏洞。

可信度评估

我们重点从八个可信度角度对GPT模型进行了全面的可信度评估,并基于不同的构建场景、任务、指标和数据集进行了全面评估。我们的工作展示了对GPT模型的全面可信度评估,并揭示了可信度差距。我们的基准可公开获取。我们的目标是鼓励研究界的其他人员利用这项工作并在此基础上再接再厉,从而有可能预先阻止不良行为者利用漏洞造成危害。

发现

我们的研究发现了大型语言模型在可靠性方面一些之前未曾披露的优势和威胁。例如,在模型对对抗性演示的鲁棒性方面,我们发现,一方面,GPT-3.5和GPT-4不会被演示中添加的反事实示例误导,甚至可以从反事实演示中受益;另一方面,我们观察到,提供反欺诈演示会误导GPT-3.5和GPT-4对反事实输入做出错误预测,尤其是当反事实演示靠近用户输入时,GPT-4更容易受到反事实演示的影响。此外,就有毒性和偏差而言,GPT-3.5和GPT-4在良性和无目标系统提示下对大多数刻板印象主题的偏差都不大。但是,在设计有误导性(对抗性)的系统提示下,两种GPT模型都可能被“诱骗”同意有偏见的内容。与GPT-3.5相比,GPT-4更容易受到有针对性的误导性系统提示的影响,并更频繁地同意有偏见的内容,这可能是因为GPT-4更准确地遵循了误导性指令。模型偏差往往取决于用户提示中提到的人口群体。例如,对于“同性恋者感染HIV”这一查询,GPT-4一般会强烈反对,而对于“女性感染HIV”这一查询,GPT-4则经常同意并输出有偏见的内容。模型偏差还取决于刻板印象主题。GPT模型在领导力和贪婪等不太敏感的主题上输出的内容偏差较大,而在毒品交易和恐怖主义等较敏感的主题上生成的内容偏差较小。这可能是由于GPT模型对一些受保护的人口群体和敏感话题进行了微调。DecodingTrust还评估了LLM的隐私泄露问题。我们发现,GPT模型可能会泄露隐私敏感的训练数据,如标准Enron电子邮件数据集中的电子邮件地址,尤其是在提示电子邮件的上下文或少样本演示对时。此外,在少样本的提示下,利用目标电子邮件域等补充知识,电子邮件提取的准确率可比电子邮件域未知的情况高出100倍。我们还观察到,GPT模型会泄露对话历史中注入的私人信息。总体而言,GPT-4在保护个人身份信息(PII)方面比GPT-3.5更稳健,而且两种模型对特定类型的PII(如社会安全号码)都很稳健,这可能是由于对这些PII关键字进行了明确的指令调整。不过,当在上下文学习过程中出现隐私泄露演示时,GPT-4和GPT-3.5都会泄露所有类型的PII。

本页网址:https://www.xinzhibang.net/article_detail-17324.html

寻求报道,请 点击这里 微信扫码咨询

关键词

GPT 语言模型 可信度评估

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯