复旦大学推出用于AI生成文本检测的测试软件“谛听”

新知榜官方账号

2023-07-07 05:36:39

在GPT-4让AI更加具有像人一样的能力,AI生成的文本的流畅度也令人惊叹,越来越难以辨识。在这一背景下,AI检测文本工具可以通过对生成文本进行追踪和检测,来识别文本是否由AI生成,这也成为防止大型AI语言模型用于作弊等行为的利器。日前,复旦大学自然语言处理实验室推出了一款用于AI生成文本检测的测试软件“谛听”(英文:Sniffer),基于黑盒假设,无需大规模监督训练,就能检测AI生成的文本。据该软件的英文版本介绍,对于ChatGPT生成文本的检测率达到80%左右。实验室负责人邱锡鹏教授3月16日晚间在微信朋友圈上表示:“后续将会在MOSS语言模型开源后,将Sniffer与MOSS进行联动,构成一对矛与盾,相互提升,继续探索大模型的新技术。”上个月,邱锡鹏告诉第一财经记者,如果优化顺利,MOSS将于3月底开源。团队表示,未来“谛听”软件工具还将支持GPT-4等更多大模型等检测,并在检测性能提升后整理公开模型。不过团队坦言,由于“谛听”的模型是建立在“黑盒假设”下,因此对于输入文本的来源模型并不知晓,而且与监督训练的分类器相比,将仅使用少部分数据进行训练。值得注意的是,测试集的检测结果显示,该模型中文检测的准确率低于英文,因此中文检测结果还需要进一步提升。

根据“谛听”的英文版介绍,在保留的测试集上检测结果显示,识别ChatGPT生成文本的成功率在80%左右,识别人类书写文本或GPT-2生成文本的成功率高于90%;非常短的文本(50个单词或更少)很难被检测到。此外,英文人工编写的示例文本来自维基百科。“谛听”英文检测结果分为四类:来自人类;来自人类、但可能有大模型如GPT-3辅助;来自GPT-3模型;来自GPT-2模型。“谛听”中文版的检测结果分为三类:一是“文本是人写的”、二是“文本是人写的,但是也很可能包含AI参与”、三是“文本是出自于AI模型的”。3月17日,邱锡鹏对第一财经记者表示:“对ChatGPT级别的中文检测准确率目前只有约40%,不过对于小模型(3B左右的开源GPT-2模型)生成的准确率可以达到90%左右。”他解释称,中文检测的准确率低于英文有几个原因。“首先是英文采用的wikipedia数据集进行特征提取,因此覆盖面更广,中文选择的数据质量差一些,这也是我们发布beta测试并且正在改进的地方;第二个是中文大模型的tokenizer(分词器)差异会大一些。”邱锡鹏说道。他还表示,关于生成文本检测,国外有一些已经发布的产品,对比下来,针对GPT-2级别的模型,准确率比较高,针对GPT-3级别的模型,检测结果还比较差。“一方面是这些模型是黑盒,我们的掌握信息有限,另一方面是这些模型生成质量很高,多样性也很好,尤其是GPT-4出现以后,相比于GPT-3.5,检测难度进一步增加了。”邱锡鹏对第一财经记者表示,“总而言之,在大模型时代,文本检测的机器评测准确率仍然较低,还需要进一步的研究。”

本页网址:https://www.xinzhibang.net/article_detail-6656.html

寻求报道,请 点击这里 微信扫码咨询

关键词

复旦大学 自然语言处理 AI生成文本检测

分享至微信: 微信扫码阅读

相关工具

相关文章