新知榜官方账号
2023-11-18 16:56:14
在AI绘画中,有时候我们需要主角(人物或动物)摆出特定的姿势,该怎么做呢?下面我们将介绍两种方法。
首先打开StableDiffusion界面,点击imag2img下面出现一个”dropimagehereorclicktoupload”的方框,从网上找一张你希望呈现的姿势图片,比如一个老鹰,姿势:双眼盯着远方。把这张图片拖拽到方框,或者从本地电脑上传。然后在提示词框里输入提示词,比如:adragon,然后点击generate生成图像。
但是这样生成的图像,姿势不好控制,有些会比较像,有些差很远。
ControlNet是一个很强大的stableDiffusion插件,可以精准的控制AI绘画中人物或动物的姿势,从而生成很多好玩有创意的图片。
在使用ControlNet之前,需要先下载ControlNet模型。现在大部分stableDiffusion的colab包都自带ControlNet,如果你使用的版本里没有,可以打开extensions,在安装时勾选ControlNet下载ControlNet模型那一栏,选择通用的姿势控制模型ControlNet_openpose(也可以都选)。
现在,打开stableDiffusion,可以在提示词框下面看到controlnet的按钮有一个Enable的方框,勾选,就启用controlnet了。
我们来测试下controlnet的效果。先不启用controlnet,输入提示词,生成如下图片,可以看到图片中人物的姿势各异。然后我们上传一张瑜伽动作姿势的图片到controlnet,然后勾选enable,Preprocessor选择openpose,Model选择openpose-sd21-safe[2be3125b]再次点击generate按钮,这时候生成的图片基本保持了和上传图像中的瑜伽动作但是,这个动作和源照片中的瑜伽动作差距有些大,生成效果不是很理想。
Controlnet的Preprocessor有很多种模型可选:canny、depth、depth_leres、hed、mlsd、normal_map、openpose、openposehand、clip_vision、color、pidinet、scribble、fake_scribble、segmentation、binary。这些都是不同的模型采用的不同方法来控制姿势,并没有谁更好谁更差,而是需要根据需要和图像特征来选择对应的合适模型。
通常来说,对于人像,HED模型可以最精准的复制人物动作。Canny、depth、normal也不错,但是有时可能会有一些变形。从上面图像来看,不仅复制了动作,还复制了、发型和衣服,效果不是很理想。OpenPose在复制动作的同时,则没有死板的去复制衣服和发型,而是精准的生成提示词中的内容,可以说是形神兼备,效果最佳。mLSD则完全不适合人像,复制效果非常差。
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49