本文分享自华为云社区《AIGC拯救手残党:涂鸦线稿秒变绝美图像》,作者:Emma_Liu 。
ControlNet
什么是 ControlNet?简而言之,文本到图像的生成涉及使用预训练的扩散模型来生成基于某些文本的图像。
从输入图像中提取特定信息的过程称为注释(在 paper 中)或预处理(在 ControlNet extension 中)。
这个扩散模型是在数十亿张图片上预训练的,当我们输入文字时,模型会根据输入的内容生成一张图片。然而,有时输出结果与我们的意图并不完全一致。这就是 ControlNet 的作用…
ControlNet 最早是在 L.Zhang 等人的论文《Adding Conditional Control to Text-to-Image Diffusion Model》中提出的,目的是提高预训练的扩散模型的性能。特别是,在预训练的扩散模型中加入另一个神经网络模型(ControlNet),使我们对输出有更多的控制。
ControlNet 的工作原理是将可训练的网络模块附加到稳定扩散模型的 U-Net (噪声预测器)的各个部分。Stable Diffusion 模型的权重是锁定的,在训练过程中它们是不变的。在训练期间仅修改附加模块。
研究论文中的模型图很好地总结了这一点。最初,附加网络模块的权重全部为零,使新模型能够利用经过训练和锁定的模型。
训练 ControlNet 包括以下步骤:
克隆扩散模型的预训练参数,如 Stable Diffusion 的潜在 UNet,(称为 “可训练副本”),同时也单独保留预训练的参数(“锁定副本”)。这样做是为了使锁定的参数副本能够保留从大型数据集中学习到的大量知识,而可训练的副本则用于学习特定的任务方面。
参数的可训练副本和锁定副本通过 "零卷积 "层连接,该层作为 ControlNet 框架的一部分被优化。这是一个训练技巧,在训练新的条件时,保留冻结模型已经学会的语义。从图上看,训练 ControlNet 是这样的:
ControlNet 提供了八个扩展,每个扩展都可以对扩散模型进行不同的控制。这些扩展是 Canny, Depth, HED, M-LSD, Normal, Openpose, Scribble, and Semantic Segmentation.
ControlNet-Scribble2img
Scribble 用于预处理用户绘制的涂鸦, 这个预处理程序不应该用在真实的图像上。由于它能够根据简单的草图生成令人惊叹、逼真或改进的图像。理想情况下,不需要任何提示。通过输入一个基本的图画,模型可以推断出细节和纹理,从而产生一个更高质量的图像。
下面是用 ModelArts 的 Notebook 适配 Scribble2img 生成的几幅图,一起来看看吧
浮世绘风格的海浪 || 满天繁星 || 小兔子和萝卜
发光水母 || 一筐橙子 || 小花喵 || 微笑的太阳
尝试用自己画的素描生成,效果也不错
接下来让我们从零开始,在 ModelArts 上一起来体验 Scribble2img 涂鸦生图的乐趣吧。。。
涂鸦生成图像 ControlNet-Scribble2img
本文介绍如何在 ModelArts 来实现 ControlNet-Scribble2img 涂鸦生成图像。
AI Gallery - Notebook 链接:拯救手残党:AI涂鸦一键成图 (huaweicloud.com)
前言
ModelArts 是面向开发者的一站式 AI 开发平台,为机器学习与深度学习提供海量数据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期 AI 工作流。
前期准备
在使用 ModelArts 之前,需要进入华为云官网 https://www.huaweicloud.com/ ,然后注册华为云账号,再进行实名认证。主要分为 3 步(注册–>实名认证–>服务授权)(如有已完成部分,请忽略)
点此去完成 实名认证,账号类型选"个人",个人认证类型推荐使用"扫码认证"。
点此进入 ModelArts 控制台数据管理页面,上方会提示访问授权,点击【服务授权】按钮,按下图顺序操作:
注意事项
本案例需使用 Pytorch-1.8GPU-P100 及以上规格运行;
点击Run in ModelArts
,将会进入到 ModelArts CodeLab 中,如果您没有登录需要进行登录。 登录之后,等待片刻,即可进入到 CodeLab 的运行环境;
出现 Out Of Memory,请检查是否为您的参数配置过高导致,修改参数配置,重启 kernel 或更换更高规格资源进行规避
运行代码方法:点击本页面顶部菜单栏的三角运行按钮或按 Ctrl+Enter 或 cell 左侧三角按钮运行每个方块中的代码;
如果您是第一次使用 JupyterLab,请查看《ModelArts JupyterLab使用指导》了解使用方法;
如果您在使用 JupyterLab 过程中碰到报错,请参考《ModelArts JupyterLab常见问题解决办法》尝试解决问题。
1.环境设置
check GPU & 拷贝代码及数据
为了更快的准备数据和模型,将其转存在了华为云 OBS 中,方便大家使用。
!nvidia-smi
import os
import moxing as mox
parent = "/home/ma-user/work/ControlNet"
bfp = "/home/ma-user/work/ControlNet/openai/clip-vit-large-patch14/pytorch_model.bin"
sfp = "/home/ma-user/work/ControlNet/models/control_sd15_scribble.pth"
if not os.path.exists(parent):
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/scribble2img/ControlNet',parent)
if os.path.exists(parent):
print('Download success')
else:
raise Exception('Download Failed')
elif os.path.exists(bfp)==False or os.path.getsize(bfp)!=1710671599:
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/scribble2img/ControlNet/openai/clip-vit-large-patch14/pytorch_model.bin', bfp)
elif os.path.exists(sfp)==False or os.path.getsize(sfp)!=5710757851:
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/scribble2img/ControlNet/models/control_sd15_scribble.pth', sfp)
else:
print("Model Package already exists!")
复制代码
安装库,大约耗时 1min,请耐心等待。
%cd /home/ma-user/work/ControlNet
!pip uninstall torch torchtext -y
!pip install torch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1
!pip install omegaconf==2.1.1 einops==0.3.0
!pip install pytorch-lightning==1.5.0
!pip install transformers==4.19.2 open_clip_torch==2.0.2
!pip install gradio==3.24.1
!pip install translate==3.6.1
复制代码
2. 加载模型
导包并加载模型,加载约 40s,请耐心等待。
import numpy as np
from PIL import Image as PilImage
import cv2
import einops
import matplotlib.pyplot as plt
from IPython.display import HTML, Image
from base64 import b64decode
from translate import Translator
import torch
from pytorch_lightning import seed_everything
import config
from cldm.model import create_model, load_state_dict
from ldm.models.diffusion.ddim import DDIMSampler
from annotator.util import resize_image, HWC3
model = create_model('./models/cldm_v15.yaml')
model.load_state_dict(load_state_dict('./models/control_sd15_scribble.pth', location='cuda'))
model = model.cuda()
ddim_sampler = DDIMSampler(model)
复制代码
3. 涂鸦生成图像
涂鸦生成图像函数定义
def process(input_image, prompt, a_prompt, n_prompt, num_samples, image_resolution, ddim_steps, strength, scale, seed, eta):
trans = Translator(from_lang="ZH",to_lang="EN-US")
prompt = trans.translate(prompt)
a_prompt = trans.translate(a_prompt)
n_prompt = trans.translate(n_prompt)
guess_mode = False
# 图像预处理
with torch.no_grad():
if type(input_image) is str:
input_image = np.array(PilImage.open(input_image))
img = resize_image(HWC3(input_image), image_resolution)
else:
img = resize_image(HWC3(input_image['mask'][:, :, 0]), image_resolution) # scribble
H, W, C = img.shape
# 初始化检测映射
detected_map = np.zeros_like(img, dtype=np.uint8)
detected_map[np.min(img, axis=2) > 127] = 255
control = torch.from_numpy(detected_map.copy()).float().cuda() / 255.0
control = torch.stack([control for _ in range(num_samples)], dim=0)
control = einops.rearrange(control, 'b h w c -> b c h w').clone()
# 设置随机种子
if seed == -1:
seed = random.randint(0, 65535)
seed_everything(seed)
if config.save_memory:
model.low_vram_shift(is_diffusing=False)
cond = {"c_concat": [control], "c_crossattn": [model.get_learned_conditioning([prompt + ', ' + a_prompt] * num_samples)]}
un_cond = {"c_concat": None if guess_mode else [control], "c_crossattn": [model.get_learned_conditioning([n_prompt] * num_samples)]}
shape = (4, H // 8, W // 8)
if config.save_memory:
model.low_vram_shift(is_diffusing=True)
# 采样
model.control_scales = [strength * (0.825 ** float(12 - i)) for i in range(13)] if guess_mode else ([strength] * 13) # Magic number.
samples, intermediates = ddim_sampler.sample(ddim_steps, num_samples,
shape, cond, verbose=False, eta=eta,
unconditional_guidance_scale=scale,
unconditional_conditioning=un_cond)
if config.save_memory:
model.low_vram_shift(is_diffusing=False)
# 后处理
x_samples = model.decode_first_stage(samples)
x_samples = (einops.rearrange(x_samples, 'b c h w -> b h w c') * 127.5 + 127.5).cpu().numpy().clip(0, 255).astype(np.uint8)
results = [x_samples[i] for i in range(num_samples)]
return [255 - detected_map] + results
复制代码
设置参数,生成图像
在/home/ma-user/work/ControlNet/test_imgs/
此路径下,我们预置了一些线稿供您测试。当然您可以自己上传您的涂鸦画至此路径下,然后更改图像路径及其他参数后,点击运行。
➡ 参数说明
images:生成图像张数
img_path:输入图像路径,黑白稿
prompt:提示词(建议填写)
a_prompt:正面提示(可选,要附加到提示的其他文本)
n_prompt: 负面提示(可选)
image_resolution: 对输入的图片进行最长边等比 resize
scale:classifier-free 引导比例
seed: 随机种子
ddim_steps: 采样步数,一般 15-30,值越大越精细,耗时越长
eta: 控制在去噪扩散过程中添加到输入数据的噪声量。0 表示无噪音,1.0 表示更多噪音。eta 对图像有微妙的、不可预测的影响,所以您需要尝试一下这如何影响您的项目。
strength: 这是应用 ControlNet 的步骤数。它类似于图像到图像中的去噪强度。如果指导强度为 1,则 ControlNet 应用于 100% 的采样步骤。如果引导强度为 0.7 并且您正在执行 50 个步骤,则 ControlNet 将应用于前 70% 的采样步骤,即前 35 个步骤。
#@title Scribble2img
img_path = "test_imgs/cat.jpg" #@param {type:"string"}
prompt = "小花猫" #@param {type:"string"}
num_samples = 1
# Added Prompt
a_prompt = "质量最好,非常详细" #@param {type:"string"}
# Negative Prompt
n_prompt = "裁剪,质量最差,质量低" #@param {type:"string"}
image_resolution = 512 #@param {type:"raw", dropdown}
scale = 4.3 #@param {type:"slider", min:0.1, max:30, step:0.1}
seed = 1773327477 #@param {type:"slider", min:-1, max:2147483647, step:1}
eta = 0.02 #@param {type:"slider", min:-1.00, max:3.00, step:0.01}
ddim_steps = 15 #@param {type:"slider", min:1, max:100, step:1}
guess_mode = False
strength = 1.0
np_imgs = process(img_path, prompt, a_prompt, n_prompt, num_samples, image_resolution, ddim_steps, strength, scale, seed, eta)
src = PilImage.fromarray(~np_imgs[0])
dst = PilImage.fromarray(np_imgs[1])
fig = plt.figure(figsize=(25, 10))
ax1 = fig.add_subplot(1, 2, 1)
plt.title('Scribble image', fontsize=16)
ax1.axis('off')
ax1.imshow(src)
ax2 = fig.add_subplot(1, 2, 2)
plt.title('Generate image', fontsize=16)
ax2.axis('off')
ax2.imshow(dst)
plt.show()
复制代码
在右侧有交互式控件,可以简单调整参数,然后运行即可,等待生成。。。
模型局限性以及可能的偏差
Prompt 只支持中英文输入。
所提供的图像或简笔画过于简单或意义不明确时,模型可能生成与上传图像相关度低的物体或是一些无意义的前景物体,可以修改上传图像重新尝试。
在一些场景下,描述 Prompt 不够明确时,模型可能生成错误的前景物体,可以更改 Prompt 并生成多次,取效果较好的结果。
当所提供的图像或简笔画与描述 Prompt 相关度低或无关时,模型可能生成偏向图像或偏向 Prompt 的内容,也可能生成无意义的内容;因此建议描述 Prompt 与所上传的图像紧密相关并且尽可能详细。
4. Gradio 可视化部署
如果想进行可视化部署,可以继续以下步骤: Gradio 应用启动后可在下方页面进行涂鸦生成图像,您也可以分享 public url 在手机端,PC 端进行访问生成图像。
ControlNet 扩展说明
图像画布:您可以拖动设置画布宽度和画布高度,然后点击开启画布!来创建一张空白画布。
调整笔刷进行绘画
输入描述词(推荐),点击 Run
高级选项(可选),您可点击此选项卡,打开折叠部分,按照上述参数说明进行设置,设置完成后点击 Run
等待生成。。。
import gradio as gr
# 画布生成函数
def create_canvas(w, h):
img = np.zeros(shape=(h-2, w-2, 3), dtype=np.uint8) + 255
im = cv2.copyMakeBorder(img,1,1,1,1,cv2.BORDER_CONSTANT)
return im
block = gr.Blocks().queue()
with block:
with gr.Row():
gr.Markdown("## 🎨涂鸦生成图像🤏")
with gr.Row():
with gr.Column():
canvas_width = gr.Slider(label="画布宽度", minimum=256, maximum=1024, value=512, step=1)
canvas_height = gr.Slider(label="画布高度", minimum=256, maximum=1024, value=512, step=1)
create_button = gr.Button(label="Start", value='开启画布!')
gr.Markdown(value='点击下面右上角小铅笔图标,改变你的刷子宽度,让它变的更细 (Gradio不允许开发人员设置画笔宽度,因此需要手动设置) ')
input_image = gr.Image(source='upload', type='numpy', tool='sketch')
create_button.click(fn=create_canvas, inputs=[canvas_width, canvas_height], outputs=[input_image])
prompt = gr.Textbox(label="Prompt")
run_button = gr.Button(label="运行")
with gr.Accordion("高级选项", open=False):
num_samples = gr.Slider(label="Images", minimum=1, maximum=12, value=1, step=1)
image_resolution = gr.Slider(label="Image Resolution", minimum=256, maximum=768, value=512, step=64)
strength = gr.Slider(label="Control Strength", minimum=0.0, maximum=2.0, value=1.0, step=0.01)
ddim_steps = gr.Slider(label="Steps", minimum=1, maximum=100, value=20, step=1)
scale = gr.Slider(label="Guidance Scale", minimum=0.1, maximum=30.0, value=9.0, step=0.1)
seed = gr.Slider(label="Seed", minimum=-1, maximum=2147483647, step=1, randomize=True)
eta = gr.Number(label="eta (DDIM)", value=0.0)
a_prompt = gr.Textbox(label="Added Prompt", value='质量最好,非常详细')
n_prompt = gr.Textbox(label="Negative Prompt",
value='裁剪,质量最差,质量低')
with gr.Column():
result_gallery = gr.Gallery(label='Output', show_label=False, elem_id="gallery").style(grid=2, height='auto')
ips = [input_image, prompt, a_prompt, n_prompt, num_samples, image_resolution, ddim_steps, strength, scale, seed, eta]
run_button.click(fn=process, inputs=ips, outputs=[result_gallery])
block.launch(share=True)
复制代码
请注意:
图像生成消耗显存,您可以在左侧操作栏查看您的实时资源使用情况,点击 GPU 显存使用率即可查看,当显存不足时,您生成图像可能会报错,此时,您可以通过重启 kernel 的方式重置,然后重头运行即可规避。或更换更高规格的资源
点击关注,第一时间了解华为云新鲜技术~
评论