ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

ControlNet 按照骨架动作绘图

ControlNet的用法还有:上传人体骨架线条,ControlNet就能按骨架的动作生成完稿的人物图片。或是上传素色的3D建模,让ControlNet彩现成为室内布置家具。

图片[1]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

Lvmin Zhang是ControlNet原始程式的开发者,Mikubill则是开发扩充功能,让我们可以在Stable Diffusion WebUI用ControlNet生图。

1. 安装ControlNet与下载模型 

  1. 切换至Extensions页面,点选Install From URL,URL输入https://github.com/Mikubill/sd-webui-controlnet.git,按下Install,接着从终端机按CTRL+C,关闭Stable Diffusion WebUI。

  2. 到 lllyasviel/ControlNet v1.1下载以.pth结尾的模型档,全部档案加起来约18GB。.yaml档不需要下载。目前v1.1是测试版,之后会合并回 主储存库

    图片[2]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

     

图片[3]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

  1. 将这些模型档放到stable-diffusion-webui/extensions/sd-webui-controlnet/models资料夹

  2. 重新启动Stable Diffusion WebUI。

2. 各个模型的用途 

ControlNet现有以下模型。

Anime Lineart 

侦测线条,生成的图片亦会保留原始的线条,适合处理动漫图像

Canny 

侦测图片边缘,比较模糊,不如Scribbles完整。

Depth 

侦测输入图片的深度图(depth map)。

Illumination 

侦测输入图片的光源与照明效果。

Inpaint 

功能类似「内补绘制」,使用50%随机遮罩+50%随机光流遮罩训练而成。

Instruct Pix2Pix 

模型档名为ip2p,类似「图生图」,但是使用训练50%的指示(instruction)提示词和50%的叙述(description)提示词训练而成。因为是ControlNet,使用此模型时不需要调整CFG Scale。

根据原作者的说法,此模型在下「使其成为X」的提示词所生成的图,效果比「使Y成为X」要好。

Also, it seems that instructions like “make it into X” works better than “make Y into X”.

Lineart 

侦测线条,适合处理线稿,生成的图片亦会保留原始的线条。

M-LSD 

侦测输入图片的直线。

Normalbae 

Openpose 

使用OpenPose技术侦测输入图片人物的动作,不一定会保留线条。

Scribbles #

侦测线条,侦测到的线条品质介于Soft Edge和Lineart之间。

Segmentation #

模型档名为seg,将侦测的图片物件切成一个一个色块处理,例如房子一个色块,后面的天空一个色块。

Shuffle #

把输入图片的概念转移到生成的图片。

作者给的例子:输入灰色装甲图片,生成的钢铁人盔甲也会是灰色的。

Soft Edge #

侦测图片边缘,效果较为柔和,像用炭笔涂过。

Tile #

输入图片,选取一个区域,使其变清晰的模型。

3. 参数解说 #

图片[4]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

在安装之后,WebUI的界面会多出”ControlNet”的按钮。

 

点开会看到以下选项:

Single Image 

上传单张图片。

Batch 

处理多张图片。Input Directory填写的是待处理的图片所在路径。

Open New Canvas 

清除图片,开一张新画布。

使用电脑镜头 

在Open New Canvas的选项下面有四个按钮。

图片[5]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

 

由左到右:新增画布;使用电脑镜头拍照上传;未知;还原上次算图设定。

Enable 

在生图时启用ControlNet,必选。

Low VRAM 

生图使用ControlNet会吃更多VRAM,此选项可降低VRAM使用量。

Pixel Perfect 

由ControlNet自动决定Preprocessor解析度。

Allow Preview 

允许预览生图结果,会显示该模型侦测的线条或骨架。

Preprocessor 预处理器 

通常Preprocessor和Model二者要一致。

Preprocessor是先将上传的图片处理过一轮,例如Scribbles会将彩色图片转成线稿。若图片的线条是白底黑线,且不是用WebUI画布所绘制,则Preprocessor必须选取”Invert”。

如果你的图片不需要处理,Preprocessor可留空。

Model 模型 

设定生图的时候使用哪个ControlNet模型。

Control Weight 

ControlNet在生图时的权重。

Starting Control Step 

要让ControlNet开始参与生图的步数。

Ending Control Step 

让ControlNet结束参与生图的步数。

Preprocessor Resolution 

预处理器的解析度。

如果不知道要设多少,请勾选”Pixel Perfect”让ControlNet自动为您决定。

Control Mode (Guess Mode) 

控制生图时,要AI平衡二者(Balanced),或是偏重你的提示词(My prompt is more important),还是偏重ControlNet (ControlNet is more important)。

[Loopback] Automatically send generated images to this ControlNet unit 

自动将生成的图片传回此ControlNet运算单元(unit)。

是的,如果您的电脑VRAM够大,您可以在Settings → ControlNet启用多个ControlNet运算单元。

Multi ControlNet 

一个ControlNet效果不够,您有没有想过启用第二、第三个ControlNet!?

预设安装后只会使用一个ControlNet,但是叠加多个有助于生成更好的图片。比方说同时使用Open Pose和Depth生成人体,并防止手画歪。

要启用Multi ControlNet,请进入Settings → ControlNet,拖动拉杆,设定要启用的ControlNet数量。

图片[6]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

 

4. 实际操作 

此处以改绘一个人物姿势为例子。

  1. 在安装之后,WebUI的界面会多出”ControlNet”的按钮。

    图片[7]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

     

 

  1. 进入文生图的页面填入提示词,接着点开下面ControlNet的界面,勾选Enabled启用ControlNet,上传图片。勾选LowVRAM可降低VRAM占用。

    图片[8]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

     

 

  1. 接着选取要使用的Preprocessor和Model,二者要一致。

Preprocessor是先将上传的图片处理过一轮,例如Scribbles会将彩色图片转成线稿。如果你的图片不需要处理,则Preprocessor可留空。

图片[9]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

 

  1. 以Scribbles为例,选取后点选右上角Generate即会生成出结果,并附上侦测到的线条。如下图所示,右边贞德的姿势确实跟左边的02十分类似。

 

图片[10]-ControlNet 按照骨架动作绘图-教程经验分享论坛-经验教学-逃课猫Deepfacelab|AI智能研究站

 

请登录后发表评论

    没有回复内容