ControlNet 是一种先进的神经网络工具,它允许用户通过预训练的图像扩散模型(如 Stable Diffusion)来控制图像生成过程。ControlNet 的设计初衷是为了提高 AI 图像生成的可控性和精度,使得创作者可以根据自己的创作需求,选择不同的功能模型来引导图像生成的方向。

以下是一些使用 ControlNet 不同功能模型的场景:

  1. Canny 边缘检测模型:当需要生成具有清晰边缘轮廓的线稿时,可以使用 Canny 边缘检测预处理器。这个模型非常适合用于从已有的线稿生成详细的插画或上色。

  2. Binary 二进制模型:如果目标是提取图像的黑白两色版本,以便进行进一步的编辑或作为特定风格的起点,可以使用 Binary 模型。

  3. Clip_Vision 风格转移模型:当用户希望将一种风格从一个图像转移到另一个图像时,Clip_Vision 模型提供了风格转移的功能。例如,可以先生成一个物体,然后将一个风格丰富的照片与该物体结合,以获得具有特定风格的对象图像。

  4. Color 色彩继承模型:在需要根据原图的色彩分布生成图像时,Color 模型可以检测出原图中色彩的分布情况,并在生成的图像中继承这些色彩特征。

  5. OpenPose 姿势检测模型:当需要控制人物姿势时,OpenPose 模型可以提供全方位的姿势控制。它支持多种预处理器,包括最近更新的 dw_openpose_full 预处理器,它在识别姿势方面更为精确。

  6. MLSD(多层直线检测)模型:适用于需要直接线条结构的设计,如建筑设计和室内设计。通过简单的线稿图和提示词,可以生成具有特定风格的设计图像。

  7. Lineart 提取模型:当需要从图像中提取线稿以生成新的艺术作品时,Lineart 提取模型可以提供多种线稿提取方式。

  8. SoftEdge 模型:与 Canny 相反,SoftEdge 模型识别图像的大概轮廓,线条柔和,给予 SD 更多的创作空间。

  9. Scribble 涂鸦模型:可以将随手涂鸦的内容转换成一幅画,适合快速概念化设计。

  10. Seg 语义分割模型:通过语义分割,可以将图像根据不同场景分割成不同的色块,每个色块代表不同的意义,适合进行图像编辑和物体替换。

  11. Shuffle 随机洗牌模型:用于风格转移,可以将其他图像的风格转移到目标图像上。

  12. Tile 分块模型:Tile 模型可以用于恢复画质、真人转动漫或动漫转真人等应用。

  13. Inpaint 局部重绘模型:适用于对图像的特定区域进行编辑或修复。

  14. IP2P 图片指令模型:可以给图像添加特效,如“make it winter”来给图像添加冬天的特效。

ControlNet 提供了丰富的预处理器和模型,将Stable Diffusion从一个随机的图片抽卡工具向一个可用可控的生产力工具转变,所以需要每一个学习者都能掌握工具的使用。