ControlNet+Loopback生图流程介绍

新知榜官方账号

2023-07-21 08:12:35

ControlNet+Loopback生图流程介绍

在使用StableDiffusion生成图片时,最常遇见的问题是人物的动作或位置不照我们的心意生成,尤其是一些高动态或不常见的姿势与角度,或者手持物品,在某些模型上是永远也跑不出来的。这时候我们可以借助ControlNet的openpose来生成。

但是,某些特别复杂或模型完全不熟悉的姿势,使用openpose也只会产生肢体错乱的结果,例如各种武术姿势,或者两人对战肢体接触,或者手持武器打斗等。

而使用ControlNet+Loopback的方法,需要一个复杂的流程配合,但是它能将一个从人偶网站产生的人偶,利用ControlNet配合Loopback,将裸色人偶渐进转换成实际的角色图,对于指定特殊动作时,无论使用何种提示词与ControlNetopenpose都无效的情况,或许是最佳的解法。

这个步骤不只能转换单人场景,多人场景也能转换,例如双人场景的人偶转换步骤。我们以女角色跳舞的姿势与构图为起点,使用这样的提示词:(extremelydetailedCGunity8kwallpaper),bestquality,masterpiece,hdr,ultrahighres,Cheefuyuwithlooselonghairandfloatinghairanddynamichair,dancing,wearingdancingdress,shortskirt,sweat,practicing,stronglight,balletshoes,dynamicpose,happy,fantasy,ballroom<lora:Cheefuyu:0.4>

当单纯使用提示词时,角色的动作高度不可控,而搭配上ControlNetopenpose时,也常产生怪异的肢体搭配,或者多余的肢体,例如多余肢体、方向错误。因为Openpose只能表达平面的姿势,但是没办法表达不同肢体的前后位置与空间分布,加上高动态的提示词本来就容易生出多余肢体,因此这种方法非常考验运气。

下面,我们要使用能产生人偶图与相对应的Openpose的网站,或者程序来制作人偶素材,我主要使用免费的PoseMy.Art来制作。在选定姿势与切割框后,使用ExportOpenPosewithhands和ExportImage,我们就得到了基本素材。

在Automatic1111内,将下载的图片放入img2img内,然后把Denoisingstrength调整到总权重的0.5,可以保证快速变形。接着是ControlNet的设定,我们在此使用两个ControlNet,两个都要设定ControlNetismoreimportant,让ControlNet能强力控制整个生图过程人物姿势不走样,第一个是使用由网站下载来的Openpose图片,将preprocessor设定为none,这样才能直接使用该姿势图。另一个ControlNet可以使用depth(深度图)或者normal(法线向量图),我个人习惯使用depth。

由于不想让它太过牵制人偶的体型变形,因此ControlWeight要设定成0.5的弱引导。最后设定Loopback,Loops设置为10,并设定Finaldenoisingstrength为0.75的高权重,让它在循环输入时变形幅度加大。最后我们就可以开始跑图了!

如果出现的图片都没有喜欢的,就可以考虑重跑几次,直到选中喜欢的图。直到目前为止,我得到的半成品图样长这样:这张半成品的手部手指是错乱的,脸是模糊崩解的,背景也是黑暗的,要处理这些问题,我们要在下一篇中继续完善这件半成品,成为可以使用的草稿。

本页网址:https://www.xinzhibang.net/article_detail-8427.html

寻求报道,请 点击这里 微信扫码咨询

关键词

ControlNet Loopback SEO

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯