新知榜官方账号
2023-09-19 10:24:23
最近斯坦福大学的计算机科学家发现,程序员用AI助手写出来的代码实际上漏洞百出。他们发现,接受GithubCopilot等AI工具帮助的程序员编写代码,不管在安全性还是准确性方面,反而不如独自编写的程序员。在「AI助手是否让使用者编写的代码不安全?」(DoUsersWriteMoreInsecureCodewithAIAssistants?)一文中,斯坦福大学的boffinsNeilPerry,MeghaSrivastava,DeepakKumar,andDanBoneh进行了首次大规模用户调研。
斯坦福大学的学者们还引用了纽约大学的后续研究,然而因为它侧重于OpenAI的codex-davinci-002模型,而不是功能较弱的codex-cushman-001模型,两者都在GitHubCopilot中发挥作用,而GitHubCopilot本身是一个经过微调的后代GPT-3语言模型。对于特定的问题,只有67%的受助组给出了正确答案,而79%的对照组给出了正确答案。
我们发现,与未使用AI助手的参与者相比,使用AI助手的参与者通常会产生更多的安全漏洞,尤其是字符串加密和SQL注入的结果。同时,使用AI助手的参与者更有可能相信他们编写了安全代码。
此前纽约大学的研究人员已经表明,基于人工智能的编程在不同条件下的实验下都是不安全的。在2021年8月的一篇论文「AsleepattheKeyboard?AssessingtheSecurityofGitHubCopilot'sCodeContributions」中,斯坦福学者们发现在给定的89种情况下,在Copilot的帮助下制作的计算机程序中,约40%可能具有潜在的安全隐患和可利用的漏洞。但他们说,之前研究的范围有限,因为它只考虑了一组受限的提示,并且只包含了三种编程语言:Python、C语言和Verilog。
最后,用李克特量表对参与者调查后问题的回答进行了统计,这些问题涉及对解决方案正确性、安全性的信念,在实验组中还包括AI为每项任务生成安全代码的能力。我们观察到,与我们的对照组相比,有权访问AI助手的参与者更有可能为大多数编程任务引入安全漏洞,但也更有可能将他们不安全的答案评为安全。
相关工具
相关文章
相关快讯
推荐
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49
国产GLM-4.5把AI价格打到地板价,实测强到离谱!
2025-07-30 09:08