谷歌Bard生成式人工智能聊天机器人可助力软件开发

新知榜官方账号

2023-08-06 06:08:46

谷歌Bard生成式人工智能聊天机器人可助力软件开发

4月21日周五,谷歌正式宣布其生成式人工智能聊天机器人Bard可以用来参与软件开发,新功能包括帮忙编写代码、去除代码错误(debug)、解释代码片段,并为在线电子表格GoogleSheets编写函数,并将代码从一种语言翻译称另一种语言等。谷歌研究(GoogleResearch)的产品负责人介绍称,自从3月向公众开放Bard以来,“协助编程”一直是用户最热门的要求之一。编程新功能可用于20多种编程语言,包括C++、Go、Java、Javascript、Python和Typescript。还可以将Python代码直接导出到GoogleColab云端工作平台。

谷歌称,生成代码功能对第一次学习编程的人士,或者需要额外支持来理解一段代码可能输出内容的人特别有用。Bard不仅可以调试错误代码或未按预期运行的代码,还可以根据提示语“更快或更高效地帮忙优化现有代码”,有助于加速软件开发、解决复杂问题和激发创新。谷歌特别提示称:“Bard仍处于早期实验阶段,有时可能会自信地呈现不准确、误导或虚假的信息。在编码方面,Bard可能会提供无法产生预期输出效果但可以运行的代码,或者提供不是最佳或不完整的代码。建议用户始终仔细检查Bard的回复,仔细测试和审查代码中的错误、漏洞和弱点。如果Bard从现有的开源项目中详细引用来给出答案,它会给出源代码的出处所在。”

有分析称,鉴于ChatGPT和BingAI等生成式AI领域竞争对手都已经支持代码生成功能,选择参与竞争的谷歌推出类似功能不难预料。不过,3月才推出的Bard流行程度还比不上去年推出的ChatGPT。其他使用生成式AI编程的工具还有GitHub旗下的Copilot以及OpenAICodex。值得注意的是,全球最大的代码托管平台GitHub已于2018年被微软收购,而ChatGPT背后的母公司OpenAI也由微软大力投资支持。微软目前俨然是AI争霸赛的最大赢家。

律所WombleBondDickinson发文提示称,能生成代码的AI工具拥有令人兴奋的潜力,但希望利用这些技术的用户应该采取预防措施,“以免撞到藏在机器学习算法表面下的石头”。文章称,近期三星经历了三起涉及ChatGPT的企业机密泄露事件。半导体工程师曾两次将机密源代码信息输入ChatGPT以修复和优化代码。另有一位注重效率的员工要求ChatGPT总结会议记录。由于ChatGPT保留用户输入数据以进行自我训练,该员工无意中向OpenAI泄露了三星机密信息:“但无意中泄露机密信息并不是使用ChatGPT的唯一潜在陷阱,最近针对GitHub、其母公司微软及其业务合作伙伴OpenAI提起的集体诉讼就证明了这一点。原告称,GitHub的人工智能编码助手Copilot盗用了可以追溯到开源存储库或开源被许可方的软件。GitHub承认使用来自GitHub上大量可公开访问的代码存储库数据来训练Copilot,据称其中大部分原本需要注明原作者的出处。但Copilot在没有提到原作者的情况下复制了很长一段代码。对生成代码特别感兴趣的AI用户请仔细检查源代码。如果一家公司利用人工智能生成代码,应通过开源许可工具运行生成的代码,以确定代码的来源并检查代码是否已获得授权许可。虽然由AI自身编写的代码可能不受版权保护(版权局最近重申,要获得版权保护,任何作品都必须有足够的人类创造性参与),但由人类编写、构思或概述的源代码,就算背后有人工智能的辅助,可能也是受版权保护的。在使用人工智能工具时,公司还应考虑向人工智能导入的内容是否被视为商业秘密,是否采取了足够的步骤来确认和保护内容的机密性,以及人工智能的任何输出是否同样属于商业秘密。”

本周还有批评性质的报道揭露,谷歌似乎为了急于应战ChatGPT而不管伦理道德。公司内测员工称Bard是“病态的骗子”、答复可能让人丧命。例如,Bard给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。但谷歌已提高警惕。上周日,谷歌CEOSundarPichai警告,如果对AI部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为AI的快速发展做好准备,因此需要更强有力的监管。

本页网址:https://www.xinzhibang.net/article_detail-9390.html

寻求报道,请 点击这里 微信扫码咨询

关键词

谷歌Bard 生成式人工智能 聊天机器人

分享至微信: 微信扫码阅读

相关工具

相关文章