Stable Diffusion 3.5重磅开源三个最新版本,文生图模型霸主归来!

前言:

终于,Stability AI发布了自家最强的模型Stable Diffusion 3.5,而且是一个全家桶,包含三个版本。

链接:https://huggingface.co/stabilityai

Stable Diffusion 3.5 可以满足科研人员、业务爱好者、初创公司和企业的多样化需求,其中包括:
这份完整版的AI绘画(SD、comfyui、AI视频)整合包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述
Stable Diffusion 3.5 Large:该基础模型拥有 80 亿参数,性能优于竞品模型并且响应迅速,是 Stable Diffusion 系列中最强大的模型。该模型非常适合 1 百万像素分辨率的专业用例。

Stable Diffusion 3.5 Large Turbo:该模型是 Stable Diffusion 3.5 Large 的蒸馏版本,只需四步即可生成高质量图像,速度远快于Stable Diffusion 3.5 Large。

Stable Diffusion 3.5 Medium:该模型拥有 25亿参数,采用改进的MMDiT-X架构和训练方法,可在消费级硬件上「开箱即用」,在质量和定制易用性之间实现了平衡。该模型能够生成分辨率在0.25到2百万像素之间的图像。

可以看到,以上模型均有较大幅度的升级。Stability AI 表示,在今年 6 月发布Stable Diffusion 3 Medium后发现模型没有满足社区的期望。因此在听到反馈意见后没有采取快速修复措施,而是「花时间进一步开发了一个新版本,以推进改造视觉媒体的使命。」

模型开发技巧

在开发模型时,Stability AI优先考虑可定制性,以提供灵活的构建基础。为了实现这一点,他们将Query-Key Normalization集成到transformer块中,稳定了模型训练过程并简化了进一步的微调和开发。

为了支持下游灵活性,Stability AI还必须做出一些权衡。使用不同种子的同一提示可能会产生很大的输出差异,这是有意为之,因为它有助于在基础模型中保留更广泛的知识库和多样化的风格。不过,缺乏特异性的提示可能会导致输出不确定性增加,并且美学水平可能会有所不同。

尤其是针对Medium版本,Stability AI 对架构和训练协议进行了一些调整,以提高质量、连贯性和多分辨率生成能力。

模型的优势

据介绍,Stable Diffusion 3.5各版本模型在以下多个方面表现出色:

可定制性:轻松微调模型以满足特定创作需求,或根据定制的工作流程构建应用程序。

高效性能:经过优化,均可在标准消费级硬件上运行,尤其是 Stable Diffusion 3.5 Medium 和 Stable Diffusion 3.5 Large Turbo 型号。

多样化输出:无需大量提示,即可创建代表全世界的图像,而不仅仅是一种肤色和特征的人。

风格多样:能够生成各种风格和美感的图片,如 3D、摄影、绘画、线条艺术以及几乎任何可以想象到的视觉风格。

在这里插入图片描述

可见,在这一代的模型中,Stability AI已经提前考虑好了手机等设备的运行。

此外,Stability AI表示,Stable Diffusion 3.5 Large在prompt adherence方面处于领先地位,并且在图像质量方面可与更大的型号相媲美。

Stable Diffusion 3.5 Large Turbo在同类模型中,推理速度最快,同时在图像质量和及时性方面保持了高度竞争力,即使与类似尺寸的非蒸馏模型相比也是如此。

Stable Diffusion 3.5 Medium 的表现优于其他中型型号,在prompt adherence和图像质量之间实现了平衡,使其成为高效、高质量性能的首选。

在这里插入图片描述

有人第一时间对比了Stable Diffusion 3.5 Large与FLUX 1.1 pro的生图效果。

除了Hugging Face上托管的模型以外,还有更多访问新模型的方式:

  • Stability AI API:https://platform.stability.ai/docs/api-reference#tag/Generate/paths/1v2beta1stable-image1generate1sd3/post

  • Replicate:https://replicate.com/stability-ai/stable-diffusion-3.5-large

  • ComfyUI:https://blog.comfy.org/sd3-5-comfyui/

  • 以及DeepInfra

此外,在新版本模型中,Stability AI 从开发的早期阶段就引入了安全、负责任的 AI 实践。

最后,Stability AI 表示,Stable Diffusion 3.5 Medium 将在 10 月 29 日公开发布。不久之后,ControlNets 也将推出,为各种专业用例提供高级控制功能。

这份完整版的AI绘画(SD、comfyui、AI视频)整合包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### Stable Diffusion 3.5 安装指南与使用教程 #### 一、简介 Stable Diffusion 3.5 是一款强大的 AI 文本生成图像模型,现已免费开源并提供详细的本地安装和在线使用教程[^1]。 #### 二、下载地址 对于希望部署于本地环境的用户而言,可以前往 Hugging Face 平台获取 `Stable Diffusion 3.5 Large` 版本的下载链接:[Hugging Face](https://huggingface.co/stabilityai/stable-diffusion-3.5-large)。 #### 三、依赖项准备 在开始之前,请确认已准备好如下工具链: - Python (建议版本 >= 3.8) - PyTorch 及其对应的 CUDA 扩展库(如果计划利用 GPU 加速) - Git 工具用于克隆项目仓库 #### 四、快速启动命令行界面(CLI) 为了简化初次使用者的学习曲线,官方提供了简易版 CLI 接口供测试之用。通过简单的几条指令即可完成基本配置与图片创作尝试: ```bash git clone https://github.com/Stability-AI/generative-models.git cd generative-models pip install -r requirements.txt python scripts/txt2img.py \ --plms \ --outdir outputs/ ``` 上述脚本会基于给定提示语(`prompt`)自动生成一张描述为“专业的猫咪照片”的艺术作品,并保存至指定目录下(outputs/)。 #### 五、WebUI图形化操作面板 除了命令行方式外,更推荐新手采用 Web 用户接口(Web UI),它允许拖拽文件上传以及直观调整参数设置等功能特性。具体搭建流程可参照官方文档说明页面中的指导步骤进行。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值