新知榜官方账号
2023-07-21 08:12:35
在使用StableDiffusion生成图片时,最常遇见的问题是人物的动作或位置不照我们的心意生成,尤其是一些高动态或不常见的姿势与角度,或者手持物品,在某些模型上是永远也跑不出来的。这时候我们可以借助ControlNet的openpose来生成。
但是,某些特别复杂或模型完全不熟悉的姿势,使用openpose也只会产生肢体错乱的结果,例如各种武术姿势,或者两人对战肢体接触,或者手持武器打斗等。
而使用ControlNet+Loopback的方法,需要一个复杂的流程配合,但是它能将一个从人偶网站产生的人偶,利用ControlNet配合Loopback,将裸色人偶渐进转换成实际的角色图,对于指定特殊动作时,无论使用何种提示词与ControlNetopenpose都无效的情况,或许是最佳的解法。
这个步骤不只能转换单人场景,多人场景也能转换,例如双人场景的人偶转换步骤。我们以女角色跳舞的姿势与构图为起点,使用这样的提示词:(extremelydetailedCGunity8kwallpaper),bestquality,masterpiece,hdr,ultrahighres,Cheefuyuwithlooselonghairandfloatinghairanddynamichair,dancing,wearingdancingdress,shortskirt,sweat,practicing,stronglight,balletshoes,dynamicpose,happy,fantasy,ballroom<lora:Cheefuyu:0.4>
当单纯使用提示词时,角色的动作高度不可控,而搭配上ControlNetopenpose时,也常产生怪异的肢体搭配,或者多余的肢体,例如多余肢体、方向错误。因为Openpose只能表达平面的姿势,但是没办法表达不同肢体的前后位置与空间分布,加上高动态的提示词本来就容易生出多余肢体,因此这种方法非常考验运气。
下面,我们要使用能产生人偶图与相对应的Openpose的网站,或者程序来制作人偶素材,我主要使用免费的PoseMy.Art来制作。在选定姿势与切割框后,使用ExportOpenPosewithhands和ExportImage,我们就得到了基本素材。
在Automatic1111内,将下载的图片放入img2img内,然后把Denoisingstrength调整到总权重的0.5,可以保证快速变形。接着是ControlNet的设定,我们在此使用两个ControlNet,两个都要设定ControlNetismoreimportant,让ControlNet能强力控制整个生图过程人物姿势不走样,第一个是使用由网站下载来的Openpose图片,将preprocessor设定为none,这样才能直接使用该姿势图。另一个ControlNet可以使用depth(深度图)或者normal(法线向量图),我个人习惯使用depth。
由于不想让它太过牵制人偶的体型变形,因此ControlWeight要设定成0.5的弱引导。最后设定Loopback,Loops设置为10,并设定Finaldenoisingstrength为0.75的高权重,让它在循环输入时变形幅度加大。最后我们就可以开始跑图了!
如果出现的图片都没有喜欢的,就可以考虑重跑几次,直到选中喜欢的图。直到目前为止,我得到的半成品图样长这样:这张半成品的手部手指是错乱的,脸是模糊崩解的,背景也是黑暗的,要处理这些问题,我们要在下一篇中继续完善这件半成品,成为可以使用的草稿。
微信扫码咨询
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49