谷歌警告其人工智能系统Bard可能存在错误和不准确的信息

新知榜官方账号

2023-07-30 12:02:24

近日,谷歌多次警告其新推出的人工智能系统Bard可能存在错误和不准确的信息。为此,该公司提出了一个解决方案:无论Bard回复你什么,建议都去谷歌一次确认。

谷歌英国负责人Debbie Weinstein在最近接受BBC采访时表示,Bard“实际上并不是去寻找具体信息的最佳途径”。今年3月,这家搜索引擎巨头推出了聊天机器人Bard,旨在与OpenAI开发的著名ChatGPT竞争。ChatGPT推出后,许多人称它为“谷歌杀手”。外界猜测(并继续猜测)这些会话式模型有可能取代互联网上的传统搜索引擎。不过,OpenAI和谷歌都警告说,他们的产品仍在测试阶段,容易出错。这样,他们也反驳了最近几个月的各种批评和争议。

Weinstein坚持表示:“我们正在鼓励人们使用谷歌搜索引擎来参考他们找到的信息。”她指出Bard仍应视为一个“实验”。她说,Bard的使用更适合“团队协作解决问题”和“产生新想法”。目前Bard处于测试阶段,存在不可靠的问题。据Newsguard这个测量和评估信息来源可靠性的平台在4月发布的一项调查显示,这个全球最大搜索引擎的聊天机器人很容易生成支持著名阴谋论的虚假内容。

谷歌的聊天机器人撰写了13段,在其中以虚构的理由支持这种阴谋论。他们重复了100次这个练习,用其他假新闻,结果Bard认为76%的假新闻是真实的。这一缺陷也出现在OpenAI的模型中,已被多家机构警告可能成为造假信息活动的推动力。谷歌甚至在Bard发布之前就意识到这一点。负责评估谷歌AI产品的两名分析师甚至试图阻止Bard面向公众发布。

除了可能产生虚假内容,还有对用户输入数据隐私的担忧。这也是该平台在欧盟推迟发布的原因。甚至谷歌自己也担心这一点,要求自己的员工不要与Bard分享机密信息。我们需要对这些问题保持警惕,并且在使用Bard时要多加注意,同时也需要关注各种信息来源的可靠性,以确保获取的信息是准确可信的。

本页网址:https://www.xinzhibang.net/article_detail-8955.html

寻求报道,请 点击这里 微信扫码咨询

关键词

谷歌 人工智能 Bard

分享至微信: 微信扫码阅读

相关工具

相关文章