谷歌计划将大语言模型技术引入GoogleAssistant

新知榜官方账号

2023-08-02 22:34:42

谷歌计划将大语言模型技术引入GoogleAssistant

北京时间8月1日,据Axios获得的谷歌内部备忘录显示,谷歌计划将最新的大语言模型(LLM)技术引入GoogleAssistant,提高其内容生成能力。该技术类似于ChatGPT和谷歌自研的Bard聊天机器人。大模型热潮来临后,巨头们都正在用大模型将自家产品一个个“升级”。比如微软与OpenAI建立合作后,将生成式AI助手就嵌入到Edge浏览器、MicrosoftOffice和Azure云服务中,让服务变得更加智能GoggleAssistant的升级同样体现了这一点。

GoogleAssistant是谷歌开发的语音助手,相当于亚马逊的Alexa和苹果的Siri。用户只需说出唤醒词“OKGoogle”或者“HeyGoogle”,GoogleAssistant就会执行用户在这之后发出的语音命令,例如暂停视频、指定任务或者接听电话。Axio的备忘录并没有详细说明Assistant将要增加哪些具体功能,但大概率将具有和Bard类似的AI聊天功能——Bard是谷歌基于PaLM2之上建立的对话式AI模型。新的GoogleAssistant或将采用LaMDA来生成逻辑通畅、文本自然的对话语言,从网络上收集信息后回答用户问题。而引入大模型之后的GoogleAssistant,也会更加“聪明”。

以前,GoogleAssistant、Siri、Alexa一类的语音助手,常被视作“假AI”——因为它们只能支持简单的用户交互,例如回答“明天天气如何?”一类的简单问题,或者提供围绕问题搜集到的信息,供用户参考,还经常答非所问。将Bard和GoogleAssistant结合,是一项互补的操作。Bard能根据从网络上搜索到的信息回答问题,但无法单独执行用户指令,和GoogleAssistant结合后,依附一定的载体,就能实际执行播放音乐或设置闹钟等服务,这将大大增强Assistant回答、解决用户问题的能力。

随着GoogleAssistant的升级,谷歌内部团队也将进行重组,部分原GoogleAssistant团队成员将面临解雇。谷歌对GoogleAssistant的改造早有预兆。2023年5月,谷歌的人工智能团队发布了一份题为“利用LLMs在移动设备上实现对话式交互”的报告,涉及移动用户界面的大语言模型应用测试。报告提到,将大预言模型和GUI(GraphicalUserInterface,即图形用户界面,用图形方式显示的计算机操作用户界面)进行整合,包括了总结屏幕内容、根据显示的内容回答问题、将指令映射到用户操作界面等四大功能。其中,最受关注的一个功能是“将指令映射到用户操作界面”——本质上,这相当于是利用指令(语音或文本)控制来用户的终端设备。例如,通过指令打开手机应用程序、调整手机蜂窝网络模式等。如今,谷歌也正是计划从移动端着手推进强化Assistant计划。安卓端的GoogleAssistant已经具备了由AI驱动的功能,能够帮助用户总结网页内容。移动端的改造只是开始,可以预见,GoogleAssistant升级后,起调整影响范围比想象中的要广得多,因为GoogleAssistant已经作为AI助手嵌入到了Google各类产品之中——比如智能音箱和智能显示器。

“每月有数亿人使用Assistant,我们致力于为他们提供高质量的体验,”谷歌发言人JenniferRodstrom在给TheVerge的一份声明中表示,“我们很高兴能探索大语言模型如何帮助我们强化Assistant,让它变得更好。”

本页网址:https://www.xinzhibang.net/article_detail-9132.html

寻求报道,请 点击这里 微信扫码咨询

关键词

谷歌 大语言模型 GoogleAssistant

分享至微信: 微信扫码阅读

相关工具

相关文章