AI绘画真神Flux模型6GB显存也能玩了,最新Forge一键安装使用!

张吕敏魔改forge,6G也能跑Flux

FLUX对硬件配置的要求相对较高,量化版本至少需要8G显存,但实测6G显存也能运行,尽管速度较慢。为了解决这一问题,AI领域的**“赛博佛祖”张吕敏开发了更加精简的FLUX量化版本,并在其改造的Forge工具上实现了仅需6G显存**即可运行的能力。

Forge工具是张吕敏魔改的WebUI,以其精简和优化而闻名,特别适用于低显存环境,能够在6G显存上提高60-75%的生成速度,8G显存上提高大约30~45%的速度。这使得AI绘图的门槛进一步降低,让更多用户能够体验到AI绘图的魅力。

此外,张吕敏还开发了其他多个与AI绘图相关的项目,如ControlNET、LayerDiffusion、IC-Light和Fooocus等,均为开源项目,对AI绘图领域的发展做出了重要贡献。他的工作不仅限于技术层面的创新,还致力于降低技术使用门槛,使更多人能够便捷地使用AI绘图工具。

这份完整版的comfyui整合包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Forge本地跑Flux

Flux模型资料包

夸克网盘:https://pan.quark.cn/s/1a584011b9d6

第一步:准备环境

  1. 将 Forge 一键包解压缩到指定目录。

  2. 将秋叶启动器拷贝到 WebUI_forge\webui 目录下。

第二步:启动和设置

  1. 打开秋叶启动器。

  2. 在启动器中选择“WebUI开发版”。

  3. 启动器将自动下载所需的依赖文件。下载完成后,不要立即启动。

第三步:配置专家模式

  1. 在启动器中点击“设置”按钮。

  2. 切换到“专家模式”。

Python路径覆盖为:

E:\webui_forge\system\python\python.exe

Git路径覆盖为:

E:\webui_forge\system\git\bin\git.exe

system按照你的解压缩包目录设置,墙裂建议不要变更默认的解压缩包后的文件夹名称。

第四步:启动 WebUI

  1. 完成设置后,使用一键启动功能启动 WebUI。

  2. 启动后,您可以像使用普通版 WebUI 一样进行操作。

第五步:安装改造的量化模型

  1. 下载张吕敏改造的量化模型。

  2. 将下载的模型文件拷贝到以下路径:

    
    
    `\webui_forge\webui\models\Stable-diffusion`
    
    
    
    
    

    如果您已设置与 WebUI 共用模型,则拷贝到 WebUI 的模型目录。

跑图效果:

提示词:A cute white cat with blue eyes is meditating in an underwater coral reef, in the style of Disney Pixar, in the style of Disney movie posters, title “Thunder monique”, high resolution, hyper realistic, cinematic, natural light

提示词:Vision, human background, backlight,A layout for a mixing plugin, crafted by the masterful Amano Yoshitaka in the realm of digital art and painting. This piece has been trending on ArtStation and is compatible with Unreal Engine. The scene features traditional Chinese architecture amidst a cityscape that resembles a lush forest, all set against a majestic mountain backdrop with flowing water and meticulously detailed elements

提示词:An attractive young woman is frozen in the speech, showing confidence and charming style. Her bright, expressive face was all the more animated by a faint smile, and her piercing green eyes shone with intelligence. She carried a stylish black microphone and wore a tailored navy uniform with a plunging neckline and a shimmering pattern. Around her neck she wore a green lanyard with a badge bearing the “Google” logo. The background is blurred, setting off a white banner with various logos and text printed on it, creating a professional or conference atmosphere. Her easy posture and charming smile convey intelligence, confidence and an ineffable attraction.

这份完整版的comfyui整合包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### 运行 Flux 模型所需的显存大小评估 #### FP16 和 FP8 版本的显存需求 Flux 模型提供了两种精度版本:FP16 和 FP8。其中,FP16 是更高精度的实现,适用于高性能显卡(如 90 系列及以上),而 FP8 则是一种更轻量化的替代方案,专为较低规格硬件设计[^1]。根据引用描述,FP16显存占用较高,通常需要至少 27GB 显存才能完成复杂推理任务[^2]。相比之下,FP8 版本由于其容量减半的设计,能够显著降低显存需求。 #### 实际显存消耗分析 在具体应用场景下,显存消耗取决于多个因素,包括但不限于模型规模、输入分辨率以及推理步骤数等。例如,在 t5xxl-FP16flux1-dev-fp8 模型对比实验中显示,即使采用较少推理步数(28 步),FP16 版本仍然占据了高达 27GB 的 GPU 显存资源。而对于简化版 Flux 模型而言,虽然未明确给出确切数值,但考虑到其针对小显存环境进行了优化,推测其峰值显存使用应低于这一水平[^3]。 #### 对于 12GB 显存的支持情况 综合以上信息可知,运行标准 FP16 Flux 模型显然超出了 12GB 显存的能力范围。然而,切换至 FP8 或者进一步缩减推理配置(比如减少推理步数至 6 步)后,则有很大概率使得该硬件条件变得可行[^3]。需要注意的是,此类调整可能会带来一定画质损失,特别是在高度依赖细节呈现的任务场景里更为明显。 另外值得注意的一点是关于 CFG 参数的选择也会间接影响最终所需资源量。对于不含人物主体部分的画面制作过程来说适当调节这个值可以帮助平衡生成质量和计算成本之间的关系[^3]。 综上所述,单纯依靠 12GB 显存难以流畅支持完整的 FP16 Flux 工作流;但如果愿意接受一定程度上的妥协并合理设定相关参数的话,则完全有可能借助 FP8 变体或者其他配套技术手段达成预期目的。 ```python # 示例代码展示如何动态选择合适的模型以适配不同显存环境 def select_model_based_on_vram(vram_size_gb): if vram_size_gb >= 27: return "t5xxl-FP16" elif vram_size_gb >= 12 and vram_size_gb < 27: return "flux1-dev-fp8" else: raise ValueError("Insufficient VRAM to run any version of the model.") selected_model = select_model_based_on_vram(12) print(f"Selected Model: {selected_model}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值