Stable Diffusion - 轻松更换图片的背景

哈喽这里是海绵

轻松更换图片的背景

今天,我们将带您探索如何利用Stable Diffusion,利用现有图像指定更换图像的背景构图信息,也就是将两张图像进行融合从而达到更换图像背景的目的。

实战体验

1、制作局部重绘蒙版

这里生成蒙版使用的是插件Inpaint Anything,所以没有安装该插件的需要先进行该插件的安装。蒙版制作步骤如下所示:

  • 在输入图像中,上传对应的图片

  • 点击按钮 Run Segment Anything,生成对应的预览图

  • 圈定需要生成蒙版的区域

  • 点击 Create Mask 按钮,获取圈选的区域

  • 在Mask Only 标签中,点击Get Mask获取蒙版图像,并下载保存到本地

2、蒙版局部重绘

在图生图标签页中选择局部重绘(上传蒙版),并上传人物图像和蒙版图像。

操作注意:

  • 重绘区域选择蒙版外,也就是非蒙版区域

  • 重绘幅度设置大一些,大于0.75。这里我直接设置到1

ControlNet局部重绘设置

ControlNet图像参考(Reference)设置

上传需要替换的背景图像

ControlNet线稿(Lineart)设置

上传需要替换的背景图像,并生成图像的线稿图

绘图

到这里使用指定图像更换背景就基本完成了,剩下就是多次生成图像并选择一张满意的图像,然后再做最后的放大拟合处理。

正向主体提示语,包含人物和背景的描述

Best quality,masterpiece,ultra high res,(photorealistic:1.4),raw
photo,1girl,long hair,(black hair:1.3),(beauty:1.3),blue eyes,stand on the
plateau,

生成的图像效果图如下所示:

3、图像放大拟合

将比较满意的图像发送到图生图中进行放大处理。

操作注意:

  • 关闭所有的ControlNet

  • 重绘幅度设置为0.3

  • 勾选Tiled Diffusion,并设置放大倍数为1.5

  • 勾选Tiled VAE

图生图设置:

Tiled Diffusion & Tiled VAE设置:

输出效果图:

效果图:**

目前 ControlNet 已经更新到 1.1 版本,相较于 1.0 版本,ControlNet1.1 新增了更多的预处理器和模型,每种模型对应不同的采集方式,再对应不同的应用场景,每种应用场景又有不同的变空间

我花了一周时间彻底把ControlNet1.1的14种模型研究了一遍,跑了一次全流程,终于将它完整下载好整理成网盘资源。

其总共11 个生产就绪模型、2 个实验模型和 1 个未完成模型,现在就分享给大家,点击下方卡片免费领取。

img

1. 线稿上色

**方法:**通过 ControlNet 边缘检测模型或线稿模型提取线稿(可提取参考图片线稿,或者手绘线稿),再根据提示词和风格模型对图像进行着色和风格化。

**应用模型:**Canny、SoftEdge、Lineart。

Canny 示例:(保留结构,再进行着色和风格化)

img

2. 涂鸦成图

方法:通过 ControlNet 的 Scribble 模型提取涂鸦图(可提取参考图涂鸦,或者手绘涂鸦图),再根据提示词和风格模型对图像进行着色和风格化。

应用模型:Scribble。

Scribble 比 Canny、SoftEdge 和 Lineart 的自由发挥度要更高,也可以用于对手绘稿进行着色和风格处理。Scribble 的预处理器有三种模式:Scribble_hed,Scribble_pidinet,Scribble_Xdog,对比如下,可以看到 Scribble_Xdog 的处理细节更为丰富:

img

Scribble 参考图提取示例(保留大致结构,再进行着色和风格化):

img

3. 建筑/室内设计

**方法:**通过 ControlNet 的 MLSD 模型提取建筑的线条结构和几何形状,构建出建筑线框(可提取参考图线条,或者手绘线条),再配合提示词和建筑/室内设计风格模型来生成图像。

**应用模型:**MLSD。

MLSD 示例:(毛坯变精装)

img

4. 颜色控制画面

**方法:**通过 ControlNet 的 Segmentation 语义分割模型,标注画面中的不同区块颜色和结构(不同颜色代表不同类型对象),从而控制画面的构图和内容。

**应用模型:**Seg。

Seg 示例:(提取参考图内容和结构,再进行着色和风格化)

img

如果还想在车前面加一个人,只需在 Seg 预处理图上对应人物色值,添加人物色块再生成图像即可。

img

5. 背景替换

**方法:**在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。

**应用模型:**Depth,预处理器 Depth_leres。

**要点:**如果想要比较完美的替换背景,可以在图生图的 Inpaint 模式中,对需要保留的图片内容添加蒙版,remove background 值可以设置在 70-80%。

Depth_leres 示例:(将原图背景替换为办公室背景)

img

6. 图片指令

**方法:**通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。

应用模型:ip2p,预处理器选择 none。

**要点:**采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。

Pix2Pix 示例:(让非洲草原下雪)

img

7. 风格迁移

**方法:**通过 ControlNet 的 Shuffle 模型提取出参考图的风格,再配合提示词将风格迁移到生成图上。

**应用模型:**Shuffle。

Shuffle 示例:(根据魔兽道具风格,重新生成一个宝箱道具)

img

8. 色彩继承

**方法:**通过 ControlNet 的 t2iaColor 模型提取出参考图的色彩分布情况,再配合提示词和风格模型将色彩应用到生成图上。

**应用模型:**Color。

Color 示例:(把参考图色彩分布应用到生成图上)

img

这份完整版的ControlNet 1.1模型我已经打包好,需要的点击下方插件,即可前往免费领取!
请添加图片描述
这里就简单说几种应用:

1. 人物和背景分别控制

2. 三维重建

3. 更精准的图片风格化

4. 更精准的图片局部重绘

以上就是本教程的全部内容了,重点介绍了controlnet模型功能实用,当然还有一些小众的模型在本次教程中没有出现,目前controlnet模型确实还挺多的,所以重点放在了官方发布的几个模型上。

同时大家可能都想学习AI绘画技术,也想通过这项技能真正赚到钱,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学,因为自身做副业需要,我这边整理了全套的Stable Diffusion入门知识点资料,大家有需要可以直接点击下边卡片获取,希望能够真正帮助到大家。

img

现在AI绘画还是发展初期,大家都在摸索前进。

但新事物就意味着新机会,我们普通人要做的就是抢先进场,先学会技能,这样当真正的机会来了,你才能抓得住。

如果你对AI绘画感兴趣,我可以分享我在学习过程中收集的各种教程和资料。

学完后,可以毫无问题地应对市场上绝大部分的需求。

这份AI绘画资料包整理了Stable Diffusion入门学习思维导图Stable Diffusion安装包120000+提示词库,800+骨骼姿势图,Stable Diffusion学习书籍手册AI绘画视频教程AIGC实战等等。

完整版资料我已经打包好,点击下方卡片即可免费领取!

【Stable Diffusion学习路线思维导图】

img

【Stable Diffusion安装包(含常用插件、模型)】

img

【AI绘画12000+提示词库】

img

【AI绘画800+骨骼姿势图】

img

【AI绘画视频合集】

img

这份完整版的stable diffusion资料我已经打包好,点击下方卡片即可免费领取!

### Stable Diffusion-XL 模型介绍 Stable Diffusion-XL (SDXL) 是一种先进的图像生成模型,其具体架构与之前的版本相似但具有更大规模和更多参数量[^1]。该模型旨在提供更高质量的图像生成效果,在保持计算效率的同时提升了视觉质量。 #### SDXL Refiner 模型 除了基础模型外,还存在一个名为 `stable-diffusion-xl-refiner-1.0` 的细化模型。此模型基于潜在扩散机制工作,专注于改善由基础模型产生的初步图像的质量。Refiner 主要用于执行最终阶段的降噪操作,从而增强图像细节并提高整体清晰度[^2]。 ### 使用方法 为了方便用户访问多种不同的预训练权重文件,一些第三方工具已经集成了多个版本的 SDXL 模型。例如,在 AUTOMATIC1111 开发的 WebUI 中可以找到如下几个选项: - `sd_xl_base_1.0.safetensors`: 基础版 SDXL 模型 - `animagine-xl-3.0-base.safetensors`: 另一变体的基础模型 - `Anything-V3.0-pruned.safetensors`: 经过剪枝优化后的特定风格化模型 这些模型可以通过图形界面轻松加载,并支持自定义设置来调整生成过程中的各项参数[^3]。 对于希望利用 Python 编程接口调用 SDXL 功能的应用开发者来说,有教程介绍了如何借助百度 API 实现这一点。这使得即使不具备深厚机器学习背景的人也能快速上手创建自己的艺术作品或实用程序[^4]。 ```python from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler import torch model_id = "stabilityai/stable-diffusion-xl-base-1.0" scheduler = EulerAncestralDiscreteScheduler.from_pretrained(model_id, subfolder="scheduler") pipe = StableDiffusionPipeline.from_pretrained(model_id, scheduler=scheduler, torch_dtype=torch.float16).to("cuda") prompt = "A majestic lion jumping from a big stone at night" image = pipe(prompt=prompt).images[0] image.save("./output_image.png") ``` 上述代码片段展示了如何使用 Hugging Face 提供的库加载并运行 SDXL 模型以生成指定主题的艺术图片
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值