Stable Diffusion的AutoencoderKL编码latent

Stable Diffusion

映射图像到潜空间



1.AutoencoderKL

代码如下(示例):

from diffusers import AutoencoderKL
from diffusers import DiffusionPipeline
import torch
from PIL import Image
import torchvision
from torchvision.utils import save_image
vae= AutoencoderKL.from_pretrained("stable-diffusion-v1-5/stable-diffusion-v1-5", subfolder="vae")

pipeline.to("cuda")
image=Image.open('testdata/brad_pitt.png').convert('RGB')
image=torchvision.transforms.functional.resize(image,256)
image=torchvision.transforms.functional.to_tensor(image).to("cuda").unsqueeze(0)
feature=vae.encode(image).latent_dist.sample()
######映射图片到潜空间
feature=feature+torch.rand(feature.shape).to("cuda")
feature = vae.decode(feature).sample

可视化图像与特征(示例):
Input image
Input image
latent
在这里插入图片描述

Channel 0;1;2;3

### Stable Diffusion 模型类型及版本 Stable Diffusion 中确实存在多种类型的模型,每种都针对特定的功能进行了优化和设计[^1]。具体来说: #### 一、基础架构差异 - **文本到图像 (Text-to-Image)**:这类模型能够依据给定的文字描述生成相应的图片内容。 - **图像到图像 (Image-to-Image)**:用于基于现有图像进行修改或转换,比如风格迁移。 #### 二、技术实现层面的不同变体 - **标准版 Stable Diffusion**:这是最初始也是最常见的版本,主要用于从随机噪声中合成高质量的图像。 - **Latent Diffusion Models (LDMs)**:不同于传统方式直接处理像素级别的图像数据,而是先将输入映射至较低维度的潜在空间内,在此空间完成去噪过程后再解码回原图尺寸。这种方式不仅提高了效率还增强了泛化能力[^2]。 ```python import torch from diffusers import AutoencoderKL, UNet2DConditionModel vae = AutoencoderKL.from_pretrained("CompVis/stable-diffusion-v1-4", subfolder="vae") unet = UNet2DConditionModel.from_pretrained("CompVis/stable-diffusion-v1-4", subfolder="unet") ``` 上述代码展示了如何加载 LDM 的两个核心组件——自动编码器 VAE 和条件 U-net 结构。 #### 三、社区贡献与第三方扩展 随着开源生态的发展,越来越多的研究者参与到项目当中来,因此出现了许多由爱好者开发并分享出来的改进版本或是具有特殊用途的新分支。例如某些专注于提高绘画质量或者加速推理速度等方面的工作成果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值