ComfyUI-N-Nodes 开源项目教程

ComfyUI-N-Nodes 开源项目教程

ComfyUI-N-Nodes A suite of custom nodes for ConfyUI that includes GPT text-prompt generation, LoadVideo, SaveVideo, LoadFramesFromFolder and FrameInterpolator ComfyUI-N-Nodes 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-N-Nodes

1、项目介绍

ComfyUI-N-Nodes 是一个为 ComfyUI 设计的自定义节点套件,旨在扩展 ComfyUI 的功能。该套件包含多种高级节点,支持整数、字符串与浮点数变量节点、GPT 节点及视频处理节点。主要在 Windows 和 ComfyUI 默认环境下测试,兼容多种如 Llama、Moondream 等 GPT 模型,优化文本生成,支持全面的视频处理功能,包括视频加载、帧提取、视频保存及帧插值。

2、项目快速启动

安装步骤

  1. 克隆仓库: 首先,将项目克隆到你的 ComfyUI custom_nodes 目录中。

    git clone https://github.com/Nuked88/ComfyUI-N-Nodes.git
    
  2. 安装依赖: 如果你想在 GPU 上运行 GPT 节点,你需要运行 install_dependency 批处理文件。有两个版本:

    • install_dependency_ggml_models.bat 用于旧的 ggmlv3 模型。
    • install_dependency_gguf_models.bat 用于所有新的模型(GGUF)。
    install_dependency_gguf_models.bat
    
  3. 重启 ComfyUI: 安装完成后,重启 ComfyUI 以加载所有自定义节点。

使用示例

以下是一个简单的使用示例,展示如何使用 LoadVideo 节点加载视频并提取帧。

from ComfyUI_N_Nodes import LoadVideo

# 加载视频
video_node = LoadVideo(video_path="path/to/your/video.mp4")

# 提取帧
frames = video_node.extract_frames()

# 打印帧数
print(f"提取的帧数: {len(frames)}")

3、应用案例和最佳实践

应用案例

  1. 视频处理: 使用 LoadVideoSaveVideo 节点,可以轻松加载视频并提取帧,处理后保存为新的视频文件。

  2. 文本生成: 结合 GPT 节点,可以生成动态文本提示,用于视频字幕生成或其他文本处理任务。

最佳实践

  1. 环境配置: 确保在 Windows 环境下使用,并按照官方指南安装所有依赖。

  2. 性能优化: 如果使用 GPU 进行处理,确保 CUDA 和 Visual Studio 已正确安装,以避免编译问题。

4、典型生态项目

  1. ComfyUI: ComfyUI 是一个强大的 UI 框架,支持自定义节点的扩展,是 ComfyUI-N-Nodes 的基础。

  2. Llama-cpp-python: 用于 GPT 节点的 GPU 加速,需要手动编译以支持 GPU 处理。

  3. Transformers: 用于 GPT 模型的文本生成,版本 4.36.2 是推荐的版本。

通过以上步骤,你可以快速上手 ComfyUI-N-Nodes 项目,并利用其强大的功能进行视频处理和文本生成。

ComfyUI-N-Nodes A suite of custom nodes for ConfyUI that includes GPT text-prompt generation, LoadVideo, SaveVideo, LoadFramesFromFolder and FrameInterpolator ComfyUI-N-Nodes 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-N-Nodes

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

<think>好的,我现在需要帮助用户解决在AMD显卡环境下安装和配置comfyui-mixlab-nodes的问题。首先,我要理解用户的问题。用户提到在安装过程中遇到了一个错误信息,引用自onnxruntime的CUDA相关错误。看起来用户可能尝试在AMD显卡上使用CUDA,但实际上CUDA是NVIDIA的技术,AMD显卡不支持CUDA,所以需要找到替代方案。 接下来,我需要确定comfyui-mixlab-nodes的依赖和要求。通常,这类工具可能依赖特定的深度学习框架,比如PyTorch,而PyTorch在AMD显卡上可以通过ROCm支持。因此,用户需要确保他们的系统配置正确,使用ROCm而不是CUDA。 首先,检查系统是否满足ROCm的要求。AMD显卡需要是支持ROCm的型号,比如Radeon VII、Instinct系列或某些RX显卡。操作系统方面,ROCm主要支持Linux,Windows的支持可能有限,可能需要WSL或虚拟机。用户可能是在Windows环境下遇到问题,所以可能需要调整到Linux环境,或者使用Docker。 然后,安装ROCm版本的PyTorch。PyTorch官网提供了针对ROCm的安装命令,用户需要确保安装正确版本的PyTorch和torchvision。例如,使用pip安装时指定正确的版本和渠道。 接下来,处理comfyui-mixlab-nodes的依赖。用户可能需要手动修改某些依赖项,将CUDA相关的依赖替换为ROCm兼容的版本。比如onnxruntime可能需要安装onnxruntime-directml或onnxruntime-rocm,而不是默认的CUDA版本。此外,用户可能需要设置环境变量,强制使用ROCm或CPU模式,以避免CUDA相关的错误。 配置ComfyUI时,用户需要检查配置文件,确保后端设置为ROCm或CPU。如果某些功能必须使用CUDA,可能需要寻找替代方案或社区提供的补丁。此外,用户应查看项目的GitHub页面或社区论坛,是否有其他人在AMD显卡上成功安装的经验分享。 测试安装后,用户需要运行示例程序,确认是否正常工作。如果遇到错误,需要根据日志调整依赖或配置。可能需要启用详细日志来获取更多信息,帮助诊断问题。 此外,用户可能需要考虑使用Docker容器,如果项目提供ROCm支持的Docker镜像,这可以简化环境配置。或者,如果性能不足,可能需要切换到CPU模式,但这样会影响速度。 最后,生成相关问题,帮助用户进一步解决可能遇到的后续问题,比如依赖冲突、性能优化或特定功能的使用。 总结步骤:确认系统支持ROCm,安装ROCm版PyTorch,调整依赖项,配置环境变量,检查社区资源,测试并调试。同时,提供备选方案如Docker或CPU模式。</think>### AMD显卡安装comfyui-mixlab-nodes指南 #### 1. 确认系统环境要求 - **显卡型号**:需支持ROCm的AMD显卡(如Radeon VII/RX 7900 XTX/Instinct系列) - **操作系统**:建议使用Linux(Ubuntu 22.04+)或Windows通过WSL2实现[^1] - **Python版本**:Python 3.8-3.11 #### 2. 安装ROCm驱动 ```bash # Ubuntu示例 wget -q -O - https://repo.radeon.com/rocm/rocm.gpg.key | sudo apt-key add - echo 'deb [arch=amd64] https://repo.radeon.com/rocm/apt/5.7 ubuntu main' | sudo tee /etc/apt/sources.list.d/rocm.list sudo apt update && sudo apt install rocm-hip-sdk ``` #### 3. 配置PyTorch环境 ```bash # 安装ROCm版PyTorch(需根据ROCm版本调整) pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.6 ``` #### 4. 特殊依赖处理 ```bash # 替换CUDA依赖项 pip install onnxruntime-rocm==1.16.3 # 替代onnxruntime-gpu pip install tensorflow-rocm==2.13.0 # 替代tensorflow-gpu ``` #### 5. 安装comfyui-mixlab-nodes ```bash git clone https://github.com/mixlab/comfyui-mixlab-nodes.git cd comfyui-mixlab-nodes # 修改requirements.txt中的CUDA依赖为ROCm版本 pip install -r requirements.txt ``` #### 6. 环境变量配置 ```bash export HSA_OVERRIDE_GFX_VERSION=11.0.0 # 根据显卡架构调整 export HIP_VISIBLE_DEVICES=0 ``` #### 7. 验证安装 ```python import torch print(torch.cuda.is_available()) # 应返回False print(torch.backends.hip.is_available()) # 应返回True ``` ### 常见问题解决方案 1. **CUDA相关错误**:通过`pip list | grep 'onnxruntime'`确认安装的是`onnxruntime-rocm` 2. **HIP初始化失败**:检查`/dev/kfd`权限,需添加用户到`video`组 3. **性能问题**:尝试设置`export PYTORCH_HIP_ALLOC_CONF=garbage_collection_threshold:0.8`
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

任铃冰Flourishing

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值