新知榜官方账号
2023-10-03 00:22:39
人工智能虽然已经涉及到人类的方方面面,但没有想到,AI还能抢艺术家的饭碗,这不,一位小哥使用AI工具生成的艺术照片竟然获奖了,而且还是一等奖,且最近刚刚火起来的stablediffusion更是让艺术家与AI发生了争执,到底AI是否抢了艺术家的饭碗,还是AI生成的图片有没有艺术,我们不做讨论,本期我们就带领大家试玩一下stablediffusion模型。
stablediffusion模型是StabilityAI开源的一个text-to-image的扩散模型,其模型在速度与质量上面有了质的突破,玩家们可以在自己消费级GPU上面来运行此模型,本模型基于CompVis和Runway团队的LatentDiffusionModels,https://github.com/CompVis/stable-diffusionhttps://github.com/CompVis/latent-diffusionstablediffusion模型核心数据集在LAION-Aesthetics上进行了训练,该模型在StabilityAI4,000个A100Ezra-1AI超集群上进行了训练,能够在消费级10GBVRAMGPU上运行,可在几秒钟内生成512x512像素的图像。潜在扩散模型可以通过在较低维潜在空间上应用扩散过程来降低内存和计算复杂性,而不是使用实际的像素空间。这是标准扩散和潜在扩散模型之间的主要区别:在潜在扩散中,模型被训练以生成图像的潜在(压缩)表示。潜在扩散模型主要有Anautoencoder(VAE).AU-Net.Atext-encoder,e.g.CLIP'sTextEncoder。
StableDiffusion模型的预训练已经达到4G之多,要是运行在自己的本地电脑,需要耗费很大的电脑资源,好在StableDiffusion已经加入HuggingFace套餐,我们可以使用HuggingFace来运行此模型,当然这里需要你有一个HuggingFace的账号,并在自己的账号中获取了运行模型的tokens值
然后打开Googlecolab,毕竟模型太大,我们使用Googlecolab的免费GPU资源来运行代码。进入自己的Googlecolab后,需要设置一下运行环境为GPU,菜单栏>>代码执行程序>>更改运行时类型,选择GPU,保存即可,这样,我们的代码会运行在GPU上面!
首先,我们需要导入第三方库来运行本次代码,然后我们需要复制HuggingFace账号下的tokens,运行下面代码时,会提示要输入token值,到自己的账号下面复制即可
以上代码运行成功后,我们便可以加载预训练模型了,这里加载的是stable-diffusion-v1-4,1-4版本是stable-diffusion目前最新的版本
当然还支持disco_diffusion_clip_vitb32
stable-diffusion也支持在线演示,可以访问如下
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16