FLUX.1 最强AI绘画开源模型,最新本地部署教程

Stable Diffusion 作者之一 Robin Rombach 官宣创业,成立了新公司「Black Forest Labs」(黑森林实验室),并推出了最新文生图模型「FLUX.1」。Black Forest Labs 在 AI 开发方面拥有丰富的经验,包括 VQGAN 和 Latent Diffusion 模型等开创性成果。该团队的经验涵盖学术、工业和开源环境,使其能够以独特的方式应对下一代 AI 技术的挑战。

让我们分析一下 Flux 的特殊之处:

三种模式,三种优势:

  • Flux Pro 是一款强大的软件,可提供令人难以置信的图像质量,但只能通过 API 提供(想想:通过平台访问,而不是直接下载)。
  • Flux Dev 是开放的,允许开发人员进行修改和实验,但它不能用于商业用途。
  • Flux Schnell 是最容易访问的,具有开源许可并可在 Hugging Face 上使用,非常适合个人项目或与 Diffusers 或 Comfy UI 等工具集成。

超乎寻常的性能:Flux 不仅外观漂亮,而​​且速度快如闪电。我们只需不到 2 秒的时间就能生成高质量图像,这对于曾经焦急地等待 AI 得出结果的人来说是一个重大改变。这种速度使其非常适合实时应用,例如用于视频内容创建或直播的图像生成。

本地部署

目前ComfyUI最新版本已经兼容FLux模型了, 只需内核升级到最新即可体验。

所以我们首先把ComfyUI给更新了

如果你用的是官方的comfyUI整合包就点这个更新

如果你用的是秋叶的启动器就按下图示例更新内核

显存太低的人本地估计运行很可能,我本地电脑配置还行,这里体验下schnell版本。

下载大模型:https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main

该链接提供了23.8g的大模型和335MB的Vae模型,我们需要把这两个都下载

  • 下载完成后将大模型放在:ComfyUI/models/unet/ 文件夹中。
  • VAE应该放在您的 ComfyUI/models/vae/ 文件夹中。

如果电脑配置一般的可以下载Flux-fp8精简版,只有11.9GB:https://huggingface.co/Kijai/flux-fp8/blob/main/flux1-dev-fp8.safetensors

Vae还是通用的ae.sft

我们除了大模型和Vae还需要下载Clip模型:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main

这其实就是SD3的Clip模型,配置好我们选择fp16,配置一般我们选择fp8,clip_l是一定要下载的

下载完我们放在:ComfyUImodelsclip 该文件夹内

以上的大模型,VAE,Clip都安装完成后我们就可以运行我们的工作流了,官网提供了一个简易的comfyUI工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/

完成必要的配置,然后输入提示并调整设置后,点击“运行”。AI将开始工作,创作您的杰作。您可以直接在笔记本中查看图像,甚至可以将其下载到您的电脑上!

效果图

提示词:”Design a photo-realistic portrait capturing the strength and resilience of a woman with a determined gaze. Place her in an urban alley with gritty textures and dramatic shadows, emphasizing her empowering presence.”

提示词:A futuristic cityscape with holographic billboards advertising the ‘Internet Income System,’ showcasing people using advanced tech devices to earn online income, vibrant and dynamic


​​​​​​欢迎前往我们的公众号,阅读更多资讯​​​

创作不易,觉得不错的话,点个赞吧!!!


<think>好的,我现在需要帮助用户了解如何在本地部署FLUX.1-dev模型。首先,我得回顾用户提供的引用内容,特别是引用[1]、[4]和[2],因为这些部分提到了本地部署的相关信息。用户之前的问题是关于本地部署的方法教程,所以我的回答需要详细且步骤清晰。 首先,根据引用[1],FLUX.1-dev是一个开源模型,可以在HuggingFace获取,适合非商业用途。引用[4]提到了系统要求,比如Python版本、PyTorch和CUDA版本,这些是环境配置的基础。然后引用[2]提到API调用和模型集成,但用户需要的是本地部署,所以可能需要指导如何从HuggingFace下载模型,并配置本地环境。 接下来,我需要组织步骤。通常,本地部署的流程包括:环境准备、依赖安装、模型下载、配置和测试。用户可能不熟悉如何正确设置虚拟环境或安装特定版本的库,所以需要详细说明。例如,Python 3.10或更高版本,PyTorch与CUDA的兼容性。 另外,用户提供的示例代码中有git clone的命令,这可能涉及到从GitHub克隆仓库。但FLUX.1-dev可能托管在HuggingFace,所以需要确认模型下载的正确方式。可能需要使用git-lfs来下载大文件,比如模型权重。 然后,安装依赖部分,用户示例中的pip install -e '.[all]'可能是指从源码安装,但需要确保依赖项正确,比如transformers、accelerate等库。环境变量的设置也是关键,比如指定模型路径。 还要考虑可能的常见问题,比如CUDA版本不匹配,或者依赖冲突。需要提醒用户注意这些点,并建议使用虚拟环境来隔离项目。 最后,测试步骤,运行一个简单的脚本或命令来生成图像,确保模型正确加载。可能需要示例代码,如使用Pipeline来加载模型并生成图像。 总结步骤:系统要求→环境配置→模型下载→安装依赖→设置环境变量→验证部署。每个步骤需要详细说明,特别是容易出错的地方,比如git-lfs的安装,模型权重的获取路径,以及可能的权限问题。 同时,要生成相关问题,可能涉及性能优化、常见错误解决、应用场景等,这些都需要基于部署步骤中的关键点来设计。</think>以下是在本地部署FLUX.1-dev模型的详细教程,结合引用内容的技术要点整理: ### 一、系统要求 1. **操作系统**:推荐Linux/Windows 10+或macOS Monterey 12.3+[^4] 2. **Python版本**:必须使用Python 3.10或更高版本 3. **硬件配置**: - 显存:最低需8GB VRAM(NVIDIA RTX 3060及以上) - 内存:建议16GB RAM 4. **CUDA版本**:需与PyTorch版本匹配,推荐CUDA 11.7/11.8[^4] ### 二、部署步骤 #### 1. 环境配置 ```bash # 创建虚拟环境 python3.10 -m venv flux-env source flux-env/bin/activate # Linux/macOS # 或 flux-env\Scripts\activate # Windows ``` #### 2. 安装依赖库 ```bash pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118 pip install transformers>=4.33 accelerate safetensors diffusers ``` #### 3. 获取模型权重 ```bash # 安装git-lfs(首次使用需执行) sudo apt-get install git-lfs # Debian/Ubuntu git lfs install # 下载模型文件 git clone https://huggingface.co/XLabs-AI/FLUX.1-dev-Controlnet-Union cd FLUX.1-dev-Controlnet-union ``` #### 4. 环境变量配置 ```python import os os.environ["MODEL_PATH"] = "/path/to/FLUX.1-dev-Controlnet-Union" # 替换实际路径 os.environ["CUDA_VISIBLE_DEVICES"] = "0" # 指定GPU编号 ``` #### 5. 验证部署 ```python from diffusers import StableDiffusionControlNetPipeline pipe = StableDiffusionControlNetPipeline.from_pretrained( os.environ["MODEL_PATH"], torch_dtype=torch.float16 ).to("cuda") # 测试生成 image = pipe("a futuristic cityscape").images[0] image.save("test_output.png") ``` ### 三、常见问题排查 1. **CUDA内存不足**: - 降低图像分辨率(默认512x512可调整为384x384) - 添加`pipe.enable_attention_slicing()` 2. **依赖冲突**: ```bash pip install --force-reinstall -r requirements.txt # 使用仓库提供的依赖清单 ``` 3. **模型加载失败**: - 检查`git-lfs`是否完整拉取文件(仓库应包含`.bin`权重文件) - 验证文件完整性:`sha256sum model.safetensors`
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值