【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿

说到后期处理板块,大家第一印象就是[图像放大],快速且高效。但是今天要讲的后期处理当中,肯定还有一些是你不知道的事儿。

# 放大算法

首先是关于放大算法,如果大家用的都是秋叶大佬的整合包的话,算法总共应该就是这些。常用的就是“R-ESRGAN 4x+”做写实图片,“R-ESRGAN 4x+
Anime6B”做 二次元 图片。

但是经常去C站,copy一些别人的作品却老是发现他们用的放大算法是什么“4x-UltraSharp”之类的高级货。

那就是因为,这些高端的放大算法,你还没下载。

所以,我在这里整理了四款更厉害的放大算法,分别是:“4x-UltraSharp”、“8x_NMKD-
Superscale_150000_G”、“8x_NMKD-
Typescale_175k”、“16xPSNR”。并将它们放在了云盘里,大家下载之后,将这四款放大算法放入“……\sd-webui-
aki-v4.2\models\ESRGAN”这个路径之中,然后重启软件。

就可以看到这四款新的放大算法了。

我们以这张图作为例子来测试一下,这张图片现在分辨率是512*512。

我将这张图发送到后期处理,分别使用一个传统算法“Lanczos”、一个常用算法“R-ESRGAN 4x+ Anime6B”,和刚才下载的四个算法做一个对比。

图片太小,大家可能看不清细节,我直接来做一下总结。

传统放大算法Lanczos对原图没有任何优化,仅仅只是放大像素,直接pass。

曾经的王者“R-ESRGAN 4x+ Anime6B”表现蛮好的,放大之后,图片有了更多的细节和更清晰的轮廓。

但是和新晋放大器“4x-UltraSharp”比起来,还是弱了一些,“4x-UltraSharp”拥有更清晰的细节,而且没有过度锐化的部分。

随着前面数字的增加,8x、16x系列的放大器,拥有了更真实的处理细节,不仅仅只追求把人物还原得光滑好看,而是增加了很多噪点和毛孔细节,让人物看起来更加真实可信。

这四个新算法呢,正常情况下推荐“4x-UltraSharp”效果相当好,“8x_NMKD-
Superscale_150000_G”色调相当偏冷一些,“8x_NMKD-
Typescale_175k”,比4x的放大器皮肤噪点更多,如何取舍就取决于你需要多高的真实度了,至于“16xPSNR”,生图速度有点慢,效果相对于8x而言没有明显提升,不建议使用。

# 面部修复

我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。

其他参数不变,直接将GFPGAN参数拉到1,就可以了。

看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。

# 背景去除

这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-
webui-rembg.git 。

安装好之后重启,就有这个选项框了。

使用这张图测试一下,模型就选第一个u2net,直接点击生成。

抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。

如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。

通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background
threshold:187。

通过这个参数,我们就能一键得到没有黑边的图像了。

另外,点击这个按钮,还可以直接生成蒙版。

这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。

这就非常方便我们做换装的处理了。

还有一个专门给动漫抠图的模型。

我们使用这张图测试一下。

抠图效果还是可以的,可能是背景比较复杂,用时19秒。

文章使用的大模型、Lora模型、SD插件、示例图片等,都已经上传到我整理的 Stable Diffusion 绘画资源中。有需要的小伙伴文末扫码自行获取。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

请添加图片描述

零基础AI绘画学习资源介绍
👉stable diffusion新手0基础入门PDF👈

(全套教程文末领取哈)
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉12000+AI关键词大合集👈

在这里插入图片描述

这份完整版的AI绘画全套学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

请添加图片描述

### 使用 Stable Diffusion 模型进行图像超分辨率和修复 为了利用 Stable Diffusion 实现高质量的图像修复,具体操作涉及几个重要步骤。这些过程依赖于特定模型文件及其配置。 #### 准备工作环境 确保已将必要的模型文件放置在正确路径下: - **Stable Diffusion 模型** `v2-1_768-ema-pruned.ckpt` 应位于 `stable-diffusion-webui/models/Stable-diffusion/` 文件夹内[^1]。 - **VAE 模型** `vqgan_cfw_00011_vae_only.ckpt` 放置于 `stable-diffusion-webui/models/VAE/` 中。 - **StableSR 模型** `webui_768v_139.ckpt` 则需存放在 `stable-diffusion-webui/extensions/sd-webui-stablesr/models/` 目录里。 #### 启动 WebUI 并加载模型 启动 Stable Diffusion 的 Web 用户界面 (WebUI),通过命令行工具进入项目根目录并运行启动脚本。一旦 WebUI 成功启动,在界面上选择之前准备好的模型版本用于后续处理任务。 #### 执行超分辨率与修复 对于图像到图像的任务,即从低质量输入生成更高清输出的过程,可以采用潜在扩散模型来完成这一目标。此功能允许用户上传待处理图片,并指定希望应用的效果参数设置[^2]。 特别地,当专注于提升图像清晰度时,建议选用专门针对高分辨率优化过的模型变体,比如上述提到的 768 尺寸版本,因为这类模型能够更好地保留细节同时改善边界平滑度[^3]。 ```bash # 假设已经安装好所有依赖项以及克隆了仓库 cd path/to/stable-diffusion-webui ./launch.sh ``` 之后可以在浏览器中访问本地部署的服务页面,按照提示上传需要增强的照片,调整相关选项后提交请求等待结果返回即可获得经过修复后的高清图样。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值