新知榜官方账号
2023-10-26 06:00:10
近日,芝加哥大学团队打造了一款名为Nightshade的投毒工具,可以在画作中添加隐形更改,让被非法抓取的画作在被AI吃掉后生成混乱,破坏模型的正常迭代。
研究人员用StableDiffusion测试了毒效,只需50张毒图,就能让模型输出变得奇怪;数量达到300张时,生成的图像已经完全变成了另一个物种。此外,模型中毒后生成的图像也是离谱的,比如生成的汽车变成了辆牛车。
艺术家们将Nightshade用来反击AI侵权,因为模型训练数据量庞大,模型中毒后,AI模型开发者想清理有毒的数据样本也很难。不少艺术家转发了Nightshade工具,表示终于有可以用来反击的东西了。
总的来说,Nightshade工具是艺术家们反击AI侵权的利器,也让我们看到了AI模型在训练数据方面的漏洞和不足。
微信扫码咨询
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49