新知榜官方账号
2023-09-04 22:10:32
在使用ControlNet的reference_only时,由于原始参考图实在太过于模糊,造成生产出来的图片品质不佳的情况下,我们需要使用一些技巧提高参考图的精细度。这个方法有个问题,就是精细化之后的人脸,并不一定吻合原始图片的人脸,所以想要百分之百完全还原一样的人脸与衣着,这个方法做不到。但是如果是为了制作人物角色的概念插画,还是可以勉强一用。
最近我正在靠着一张大图产生不同的人物图样。拥有较大面积的人物比较好处理,但是离镜头太远,又穿着容易跟背景或人物头发混淆的衣物的角色,就会特别难处理。在StableDiffusion里面,由于reference_only是将参考图转化进LatentSpace中当作参考源,因此图会被变成八倍小的高维度抽象像素,如果图本身的清晰度不够,也就是说像素与隔壁像素之间的变化不够大,就无法抽取出太有意义的高维度像素,那这样出来的成品就会非常模糊。
因此,为了提高出图品质,最好的方法就是将原始参考图精细化,从源头提升,才能改善这一症状。但因为在精细化的过程中,会改造与增加细节在原始图上,所以会慢慢偏离原始图的样式。这点要不断改变提示词来确保我们要的细节不会跑掉太多。
具体方法是先将原始图片剪下512x512的方形图,注重在脸部与上半身的位置,然后使用img2img搭配0.2到0.3的denoisingstrength,搭配上想要测试的提示词来改造参考图,并且将出图尺寸增大到1024x1024,由于图变大了,所以StableDiffusion就可以用更多的空间修改出提示词要的内容。
接下来要生产变化较大的最终参考图。首先,使用同样的提示词,在txt2img中算图,但是要打开ControlNet,使用canny或lineart来框定人物的轮廓,在比较之后,使用lineart来配合绘图。在重调尺寸的设定上,使用ResizeandFill,因此来源图虽然是1024x1024,但产出的是1152x768的宽图。
最后使用绘图软体,将该图裁剪出512x512的脸部特写(避免乱七八糟的手指入画),然后使用img2img配合0.2到0.3的denosingstrength放大成768x768,再使用inpaint涂抹脸部范围,加上maskedonly来针对面部继续精细化。于是得到了一节足以当做参考图源的最终参考图。
在这张参考图的指引下,就能在txt2img下产出解析度比较高的成品图了。
微信扫码咨询
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49