使用ControlNet的reference_only时如何提高参考图的精细度

新知榜官方账号

2023-09-04 22:10:32

使用ControlNet的reference_only时如何提高参考图的精细度

在使用ControlNet的reference_only时,由于原始参考图实在太过于模糊,造成生产出来的图片品质不佳的情况下,我们需要使用一些技巧提高参考图的精细度。这个方法有个问题,就是精细化之后的人脸,并不一定吻合原始图片的人脸,所以想要百分之百完全还原一样的人脸与衣着,这个方法做不到。但是如果是为了制作人物角色的概念插画,还是可以勉强一用。

最近我正在靠着一张大图产生不同的人物图样。拥有较大面积的人物比较好处理,但是离镜头太远,又穿着容易跟背景或人物头发混淆的衣物的角色,就会特别难处理。在StableDiffusion里面,由于reference_only是将参考图转化进LatentSpace中当作参考源,因此图会被变成八倍小的高维度抽象像素,如果图本身的清晰度不够,也就是说像素与隔壁像素之间的变化不够大,就无法抽取出太有意义的高维度像素,那这样出来的成品就会非常模糊。

因此,为了提高出图品质,最好的方法就是将原始参考图精细化,从源头提升,才能改善这一症状。但因为在精细化的过程中,会改造与增加细节在原始图上,所以会慢慢偏离原始图的样式。这点要不断改变提示词来确保我们要的细节不会跑掉太多。

具体方法是先将原始图片剪下512x512的方形图,注重在脸部与上半身的位置,然后使用img2img搭配0.2到0.3的denoisingstrength,搭配上想要测试的提示词来改造参考图,并且将出图尺寸增大到1024x1024,由于图变大了,所以StableDiffusion就可以用更多的空间修改出提示词要的内容。

接下来要生产变化较大的最终参考图。首先,使用同样的提示词,在txt2img中算图,但是要打开ControlNet,使用canny或lineart来框定人物的轮廓,在比较之后,使用lineart来配合绘图。在重调尺寸的设定上,使用ResizeandFill,因此来源图虽然是1024x1024,但产出的是1152x768的宽图。

最后使用绘图软体,将该图裁剪出512x512的脸部特写(避免乱七八糟的手指入画),然后使用img2img配合0.2到0.3的denosingstrength放大成768x768,再使用inpaint涂抹脸部范围,加上maskedonly来针对面部继续精细化。于是得到了一节足以当做参考图源的最终参考图。

在这张参考图的指引下,就能在txt2img下产出解析度比较高的成品图了。

本页网址:https://www.xinzhibang.net/article_detail-10856.html

寻求报道,请 点击这里 微信扫码咨询

关键词

ControlNet 参考图 精细度

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯