Flux持续火爆,这些Lora、ControlNet、工作流你值得拥有

Flux自发布以来,受到了广大AI绘画爱好者的一致好评,远远的将SD3甩在了脑后,其出图质量媲美Midjourney。而且Flux迭代迅速,接连发布了Flux.1的开发模型和个人模型,其Lora模型、ControlNet模型也迅速推出,社区创作热情高涨。
在这里插入图片描述

为了让大家对Flux有一个全面的认识,本文将介绍下Flux基础模型、LoRA模型,以及ControlNet模型的使用方法。

因为Flux模型目前还不能在Stable Diffusion WebUI中使用,所以本文将以另一个常用的AI绘画工具 ComfyUI 为例进行讲解。同时为了方便大家测试,我在云环境也创建了一个ComfyUI的镜像,内置了Flux的模型和工作流,一键开启,不用费劲吧啦的部署。

Flux介绍

Flux是目前最大的AI绘画开源模型,有120亿个参数,原始文件有23GB那么大。听起来很吓人吧?但别担心,通过ComfyUI的支持,我们可以把模型压缩到12GB,并且它会自动检测显存来调整加载方式,这样我们在普通的消费级电脑上也能跑得动。

Flux 在视觉效果、提示的准确性、大小和比例的灵活性、排版和输出多样性方面,比Midjourney v6.0、DALL·E 3 (HD) 和 SD3-Ultra这些流行模型都要好。它可以在256到2048的宽分辨率范围内生成高质量、少冗余的图像,四肢表现也非常稳定。虽然对硬件有点要求,但效果真的很值。

Flux目前发布的 Flux.1 有三个版本,pro、dev和schnell。pro效果最好,但是闭源不开放;dev效果和pro差不多,虽然有商业使用的限制,但是可以免费测试(你懂的);schnell是个蒸馏模型,可以4步快速出图,效果虽然差点,但是也可以媲美Midjourney v6.0 和 DALL·E 3 (HD)。

ComfyUI在浏览器中启动后,我们可以先通过设置切换到中文界面:

在这里插入图片描述

然后点击“加载”旁边的小箭头,选择一个“Flux”工作流,点击“添加提示词队列”,就可以开始愉快的生成了。

在这里插入图片描述

如果你懂一些技术,也可以通过手动启动镜像的方式来体验ComfyUI,镜像地址在这里:

https://bbs.haoee.com/postDetail/618

Flux基础模型的使用

这里介绍两个基础模型的工作流:dev模型和schnell模型。

先看dev模型的工作流:Flux的工作流和其它SD模型的工作流没有太大的区别,都是:加载基础模型、编码提示词、定义潜在空间、采样器采样、解码器解码。

不太一样的就是这里增加了一个:Flux引导,Flux引导的目的是增强图片质量,生成训练时CFG为这个值的图像质量,但是不会降低生成速度;此时我们可以将CFG的值设置为1,用来提高生成速度,注意CFG的值不用太高,1-2.5即可;另外Flux.1还不能使用反向提示词。

在这里插入图片描述

再看schnell模型的使用:schnell 是个蒸馏模型,可以认为学习到了Flux原始模型的精华部分,这里不需要使用Flux引导,且只需要4步,图片的质量依旧很优秀。

在这里插入图片描述

另外这里用到的两个模型中都包含了提示词编码器CLIP和潜在空间解码器VAE,他们不用单独设置。

Flux LoRA模型的使用

再看这个LoRA模型的工作流。

这里使用了双CLIP编码器,并单独加载了CLIP模型,SD3也使用了双CLIP编码,CLIP1可以看做是对标签类提示词的编码,CLIP2是对自然语言提示词的编码,这样编码对图片的质量比较好。另外我们还使用了“CLIP文本编码Flux”这个编码器,它自带Flux引导,就不用单独添加Flux引导节点了。

因为单独加载了CLIP模型,这里使用了UNET加载器来加载Flux的基础模型,加载LoRA也是使用的Flux专属节点,后边的采样器也是专为Flux量身定制的Xlabs Sampler。

在这里插入图片描述

Flux ControlNet模型的使用

目前有三个适用于Flux的 ControlNet,分别是 Canny、Hed 和 Depth。这里以Canny为例:

在这里插入图片描述

工作流的左边是ControlNet的处理,右边是Flux采样部分的节点。

其中ControlNet的预处理器还是可以使用我们之前在SD1.5和SDXL使用的预处理器,但是加载和应用ControlNet模型要换成Flux专用的。

右侧的Flux采样使用的节点上边都介绍过了,这里就不废话了。有看不懂的地方,可以留言。

ControlNet模型正在快速迭代中,目前已经发布到了V3版本。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

零基础AI绘画学习资源介绍

👉stable diffusion新手0基础入门PDF👈

(全套教程文末领取哈)
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉12000+AI关键词大合集👈

在这里插入图片描述

这份完整版的AI绘画全套学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
<think>嗯,用户之前已经问过关于中古风客厅和餐厅的工作流程,现在他们提到想使用Flux模型。首先,我需要确认他们所说的“Flux模型”具体指的是什么。因为目前Stable Diffusion的生态中有多个可能的模型可能被简称为“Flux”,比如Stability AI官方的Flux模型,或者社区改进的版本,比如Flux-7B或者可能用户混淆了其他类似名称的模型。 用户之前的工作流程使用了RealisticVision和DreamShaper,现在转向Flux模型,可能是因为Flux在生成特定风格或细节上有优势。我需要先回忆Flux模型的特点。Flux模型通常以高动态范围和细腻的光影处理著称,适合需要复杂光照的场景,比如中古风格中的自然光和材质反射。这可能正是用户想要的,因为他们之前的工作流程中提到了灯光系统和材质细节。 接下来,用户的需求可能不仅仅是换模型,而是如何将之前的流程适配到Flux,同时保持或提升效果。需要检查Flux模型是否需要不同的参数设置,比如步骤数、CFG值,或者是否需要额外的节点支持。例如,Flux可能对ControlNet的配置更敏感,或者需要特定的采样器配合。 另外,用户可能在使用Flux时遇到问题,比如生成结果不符合预期,或者与其他插件不兼容。需要预见到这些问题,并给出相应的调试建议,比如调整降噪强度、检查LoRA权重兼容性等。此外,用户可能需要关于如何结合Flux和之前提到的材质系统、灯光节点的指导,确保整个流程的连贯性。 还需要考虑Flux模型是否支持多视角生成,因为用户之前用了Batch Sync Diffusion来处理客厅和餐厅的一致性。如果Flux在处理多视角时效果不佳,可能需要调整同步策略,比如使用不同的种子生成方式,或者增强ControlNet的控制权重。 最后,用户可能有兴趣了解Flux模型与其他模型的对比,是否有独特的优势,或者在某些方面需要特别注意。例如,Flux可能在生成速度上较慢,需要更高显存,这些实际应用中的问题也需要提及,帮助用户合理规划资源配置。</think>以下是为使用**Fllux模型**设计中古风空间的工作流优化指南,重点说明模型特性适配与参数调整策略: --- ### **一、Flux模型特性适配** #### 1. **模型核心优势** - **光影表现**:支持16-bit色彩深度渲染,对中古风黄铜/玻璃材质的反射更细腻 - **动态范围**:可自动平衡自然光与人造光混合场景 - **内置滤镜**:自带`vintage_film`(模拟柯达Gold200胶片质感) #### 2. **版本选择建议** ```python 推荐版本 = { "基础版": "flux-stable-diffusion-v1-7b"(支持多视角时间连贯性) } ``` --- ### **二、工作流重构要点** #### ▶ **节点架构调整** ```mermaid graph TB A[Flux主模型] --> B[Time-aware KSampler] B --> C[LuxCore渲染桥接器] C --> D[材质系统] D --> E[OptiX Denoiser] ``` #### ▶ **关键参数配置** | 模块 | 常规参数 | Flux特化参数 | |-----------------|-----------------|-------------------| | 采样器 | steps:20 | temporal_steps:5 | | CFG Scale | 7.0
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值