利用开源Stable Diffusion模型实现图像压缩比竞争方法用更低的比特率生成更逼真的图像

概述

论文地址:https://studios.disneyresearch.com/app/uploads/2024/09/Lossy-Image-Compression-with-Foundation-Diffusion-Models-Paper.pdf
迪士尼的研究部门正在提供一种新的图像压缩方法,利用开源Stable Diffusion V1.2 模型,以比竞争方法更低的比特率生成更逼真的图像。

Disney 压缩方法与之前方法的比较。作者声称改进了细节恢复,同时提供了一种不需要数十万美元训练的模型,并且比最接近的等效竞争方法运行速度更快。

新方法(定义为“编解码器”)与传统编解码器相比,其复杂性有所增加,例如 JPEG格式(LDM)。在定量测试中,它在准确性和细节方面优于以前的方法,并且所需的训练和计算成本明显减少。

新研究的关键见解是量化错误 (a 中心过程 在所有图像压缩中)类似于 噪声 (a 中心过程 在扩散模型中)

因此,可以将“传统”量化图像视为原始图像的噪声版本,并在 LDM 的去噪过程中使用它来代替随机噪声,以便以目标比特率重建图像。

进一步比较迪士尼的新方法(以绿色突出显示)与其他方法的对比。

作者认为:

“[我们] 将量化误差的消除作为一项去噪任务,使用扩散来恢复传输图像潜影中丢失的信息。我们的方法使我们能够执行不到 10% 的完整扩散生成过程,并且不需要对扩散模型进行架构更改,从而可以使用基础模型作为强大的先验,而无需对主干进行额外的微调。

“我们提出的编解码器在定量真实感指标方面优于以前的方法,并且我们验证了即使其他方法使用两倍的比特率,我们的重建在质量上也更受最终用户的青睐。”

然而,与其他试图利用扩散模型压缩能力的项目一样,输出可能 幻觉的 细节。相比之下,JPEG 等有损压缩方法将产生明显扭曲或过度平滑的细节区域,普通观众可能会认为这是压缩限制。

相反,由于视频的粗糙性质,迪士尼的编解码器可能会改变源图像中不存在的背景细节。 可变自动编码器 (VAE)用于在超大规模数据上训练的典型模型。

“与其他生成方法类似,我们的方法可以在接收端合成类似信息时丢弃某些图像特征。然而,在特定情况下,这可能会导致重建不准确,例如弯曲直线或扭曲小物体的边界。

“这些都是我们所构建的基础模型的众所周知的问题,可以归因于其 VAE 的特征维度相对较低。”

虽然这对于艺术描绘和休闲照片的逼真度有一定影响,但在具有此功能的编解码器普及的情况下,它可能会在小细节构成重要信息的情况下产生更关键的影响,例如法庭案件的证据、面部识别的数据、光学字符识别(OCR)的扫描以及各种其他可能的用例。

在人工智能增强图像压缩技术发展的初期,所有这些可能的情况都还很遥远。然而,图像存储是一项超大规模的全球性挑战,涉及数据存储、流媒体和电力消耗等问题,以及其他问题。因此,基于人工智能的压缩可以在准确性和物流之间提供诱人的权衡。历史表明,最好的编解码器 并不总是赢 最广泛的用户群,当许可和专有格式的市场占领等问题成为采用的因素时。

迪士尼长期以来一直在尝试使用机器学习作为压缩方法。2020 年,新论文的一位研究人员参与了 基于 VAE 的项目 以改善视频压缩。

迪士尼的新报纸于 10 月初进行了更新。今天该公司发布了一份 附带 YouTube 视频。 该 项目 标题为 使用基础扩散模型进行有损图像压缩,来自苏黎世联邦理工学院(隶属于迪士尼的 AI 项目)和迪士尼研究中心的四位研究人员。研究人员还提供了 补充文件.

实现方式

新方法使用 VAE 将图像编码为其压缩 潜在表征。在此阶段,输入图像由派生的 功能 – 基于低级向量的表示。然后将潜在嵌入量化回比特流,并量化回像素空间。

然后将该量化图像用作噪声的模板,该噪声通常为基于扩散的图像提供种子,并具有不同数量的去噪步骤(其中通常在增加去噪步骤和提高准确性与降低延迟和提高效率之间进行权衡)。

新 Disney 压缩方法的架构。

在新系统中,可以通过训练神经网络来控制量化参数和去噪步骤总数,该神经网络可以预测与编码相关的相关变量。这个过程称为 _自适应量化_迪士尼系统使用 恩特罗弗默 框架作为驱动该过程的熵模型。

作者指出:

“直观地讲,我们的方法学会丢弃在扩散过程中可以合成的信息(通过量化变换)。因为量化过程中引入的误差类似于添加[噪声],而扩散模型在功能上是去噪模型,所以它们可以用来消除编码过程中引入的量化噪声。”

Stable Diffusion V2.1 是系统的传播主干,之所以选择它,是因为整个代码和基础 权重 是公开的。然而,作者强调他们的模式适用于更广泛的模型。

这一过程的经济性的关键在于 时间步长预测,它评估了最佳去噪步骤数——效率和性能之间的平衡行为。

时间步长预测,最佳去噪步长数以红色边框表示。请参阅源 PDF 以获得准确的分辨率。

在预测最佳去噪步骤数时,需要考虑潜在嵌入中的噪声量。

数据与测试

该模型是在 Vimeo-90k 数据集。图像被随机裁剪为 256x256px,每个 时代 (即模型训练架构每次完全摄取精炼的数据集)。

该模型针对 300,000 步进行了优化, 学习率 1e-4。这是计算机视觉项目中最常见的,也是最低且最细粒度的一般可行值,作为数据集概念和特征的广泛概括与精细细节再现能力之间的折衷。

作者对经济而有效的系统的一些后勤考虑进行了评论*:

“在训练过程中,通过扩散模型的多次传递来反向传播梯度的成本非常高,因为它在 直通车 采样。因此,我们只执行一次 DDIM 采样迭代,并直接使用 [此] 作为完全去噪的 [数据]。'

用于测试系统的数据集是 柯达; CLIC2022;和 可可 30k. 数据集根据 2023 年 Google 提供 使用条件生成器进行多现实主义图像压缩.

使用的指标是 峰值信噪比 峰值信噪比(PSNR); 学习感知相似性度量 (低密度聚乙烯保护系统); 多尺度结构相似性指数 (MS-SSIM);和 弗雷谢起始距离 (最终鉴定)。

测试的竞争对手先前的框架分为使用生成对抗网络 (GAN) 的旧系统和基于扩散模型的较新系统。测试的 GAN 系统包括 高保真生成图像压缩 (HiFiC);和 医学硕士 (对 HiFiC 做出了一些改进)。

基于扩散的系统 使用条件扩散模型进行有损图像压缩 (疾病预防控制中心)和 使用基于分数的生成模型进行高保真图像压缩 (高频频谱分析仪)。

与各种数据集上的先前框架相比的定量结果。

对于定量结果(如上图所示),研究人员指出:

“我们的方法在重建图像的真实性方面树立了新的领先水平,在 FID 比特率曲线中超越了所有基线。在某些失真指标(即 LPIPS 和 MS-SSIM)中,我们的表现优于所有基于扩散的编解码器,同时仍与性能最高的生成编解码器保持竞争力。

“正如预期的那样,我们的方法和其他生成方法在以 PSNR 衡量时会受到影响,因为我们更喜欢感知上令人愉悦的重建,而不是精确复制细节。”

对于用户研究,我们采用了两种强制选择 (2AFC) 方法,在锦标赛环境中,受欢迎的图像将进入后续轮次。该研究使用了 ELO 最初为国际象棋锦标赛开发的评级系统。

因此,参与者将查看并从各种生成方法中呈现的两个 512x512px 图像中选择最佳图像。进行了一项额外的实验,其中 所有 通过对同一用户的图像比较进行评估, 蒙特卡洛模拟 超过 10,0000 次迭代,结果中显示中位数分数。

针对用户研究估算的 Elo 评分,包含每次比较的 Elo 锦标赛(左)以及每个参与者的 Elo 锦标赛,值越高越好。

以下是作者的评论:

“从 Elo 得分可以看出,我们的方法明显优于其他所有方法,甚至与 CDC 相比也是如此,CDC 平均使用了我们方法的两倍。无论使用哪种 Elo 锦标赛策略,情况都是如此。”

在原始论文中,以及 补充 PDF中,作者提供了进一步的视觉比较,其中一个在本文前面展示过。然而,由于样本之间的差异很小,我们请读者参考源 PDF,以便公平地判断这些结果。

论文最后指出,其提出的方法比竞争对手 CDC 的运行速度快两倍(分别为 3.49 秒和 6.87 秒)。论文还指出,ILLM 可以在 0.27 秒内处理图像,但该系统需要繁重的训练。

总结

ETH/Disney 的研究人员在论文的结论中明确指出,他们的系统可能会产生虚假细节。然而,材料中提供的所有样本都没有涉及这个问题。

平心而论,这个问题并不局限于迪士尼的新方法,而是使用扩散模型(一种创造性和解释性的架构)来压缩图像的不可避免的附带影响。

有趣的是,仅在五天前,苏黎世联邦理工学院的另外两名研究人员制作了一个 标题 __用于图像压缩的条件幻觉__该研究探讨了基于人工智能的压缩系统中实现“最佳幻觉水平”的可能性。

作者在那里论证了幻觉的可取性,其中领域是足够通用的(并且可以说是“无害的”):

“对于类似纹理的内容,例如草地、雀斑和石墙,生成与给定纹理真实匹配的像素比重建精确的像素值更重要;从纹理分布生成任何样本通常就足够了。”

因此,第二篇论文主张压缩应具有最佳的“创造性”和代表性,而不是尽可能准确地重现原始未压缩图像的核心特征和轮廓。

人们不禁想知道摄影和创意界会如何看待这种相当激进的“压缩”重新定义。

<think>嗯,用户问的是Stable Diffusion本地版是什么。我需要先回忆一下Stable Diffusion的基本概念。Stable Diffusion是一个开源的文本到图像生成模型,对吧?它能够根据用户提供的文字描述生成对应的图片。那本地版应该是指用户可以在自己的电脑上安装和运行这个模型,而不需要依赖云服务或者在线平台。 接下来,我需要确认用户可能想知道的内容。通常,用户关心本地版的优势、系统要求、安装步骤、使用场景以及可能的问题。比如,本地运行的好处可能是隐私保护、离线使用、自定义模型等。系统要求方面,Stable Diffusion对显卡有一定要求,特别是需要支持CUDA的NVIDIA显卡,显存可能至少4GB或高。安装步骤可能涉及下载代码库、安装依赖、配置环境等,但具体步骤可能需要查阅文档。使用场景包括艺术创作、设计、研究等,用户可能想了解它能做什么。问题可能包括硬件要求高、设置复杂、生成速度慢等。 需要确保回答结构清晰,分点说明,帮助用户逐步理解。同时,要避免技术术语过多,用中文通俗解释。另外,用户可能还关心如何获取和安装本地版,是否需要编程知识,或者是否有图形界面可用。比如,有些用户可能通过Web UI如AUTOMATIC1111的界面来使用,这样友好。 还要注意区分Stable Diffusion与其他图像生成模型的不同,比如DALL-E或MidJourney,强调其开源和可本地部署的特点。可能还需要提到训练自定义模型的可能性,以及社区的支持情况。 最后,检查是否有遗漏的重要信息,比如许可证问题,商业使用是否允许,或者资源消耗的情况,比如电力和硬件损耗。确保回答准确,并建议用户根据自身硬件条件选择合适的版本,或提供优化建议,比如使用显存模式。</think>Stable Diffusion本地版是**一款可在个人计算机上离线运行的开源AI图像生成模型**。以下从5个关键维度逐步解析其核心概念: 1. **技术基础** - 基于扩散模型Diffusion Model)架构,通过逐步去除图像噪声实现从文本到图像的转化。 - 使用潜在空间降维技术,计算需求比传统像素级处理降97%(原始版本需约256x256x3=196,608维,经压缩后为4x64x64=16,384维)。 2. **核心特征** - 开源属性:代码库托管在GitHub(CompVis/stable-diffusion) - 模型规格: - 基础版本占用约4.1GB存储空间 - 支持中文等多语言提示词(需特定扩展) - 默认生成分辨率512x512像素 3. **硬件需求** - 最配置: $$ \text{GPU显存} \geq 4\text{GB(NVIDIA 10系+)} $$ $$ \text{系统内存} \geq 8\text{GB} $$ - 推荐配置: $$ \text{RTX 3060(12GB)及以上} $$ $$ \text{固态硬盘+16GB内存} $$ 4. **部署方案** - 典型实现路径: 1. 安装Python 3.10+ 2. 配置CUDA 11.3工具包 3. 克隆Git仓库: ```bash git clone https://github.com/CompVis/stable-diffusion ``` 4. 安装依赖: ```bash pip install -r requirements.txt ``` 5. **应用场景** - 创意设计:单张图像生成耗时约 $t = \frac{512 \times 512}{batch\_size \times iterations} \times k$(k为硬件系数) - 科研用途:支持LoRA微调(典型参数 $\alpha=0.1$,秩 $r=64$) - 商业应用:遵循CreativeML Open RAIL-M许可证,允许商用但有限制条款 **注意事项**:实际部署时需考虑显存优化策略,如启用`--medvram`参数或采用xFormers加速。对于非技术用户,推荐使用整合包(如AUTOMATIC1111的WebUI)简化安装流程。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知来者逆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值