ComfyUI-Ollama插件安装与使用指南

ComfyUI-Ollama插件安装与使用指南

【免费下载链接】comfyui-ollama 【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama

ComfyUI-Ollama是一个专门为ComfyUI设计的自定义节点集,通过Ollama的Python客户端,轻松地将大型语言模型集成到工作流程中进行实验和应用。这个强大的插件让你能够在可视化界面中与各种LLM模型进行交互,支持文本生成、视觉任务和多轮对话等多种功能。

项目目录结构解析

了解项目结构有助于更好地使用ComfyUI-Ollama:

  • example_workflows - 包含多个示例工作流程文件,展示不同应用场景
  • web/js - 前端交互JavaScript代码
  • init.py - Python包初始化文件
  • deprecated_nodes.py - 已弃用节点代码
  • CompfyuiOllama.py - 主要节点实现代码
  • pyproject.toml - 项目依赖和构建设置
  • requirements.txt - 运行所需的Python库列表
  • .meta - 包含项目截图和示例图片

项目结构示例

环境准备与安装

第一步:安装Ollama服务器

在使用ComfyUI-Ollama之前,需要确保系统已运行Ollama服务器,并且ComfyUI主机能够正常访问它。

安装Ollama服务器的方法:

curl -fsSL https://ollama.com/install.sh | sh

或者使用Docker安装:

docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama

第二步:安装自定义节点

有三种安装方法:

  1. 使用ComfyUI内置的扩展管理器搜索comfyui-ollama进行安装
  2. 使用ComfyUI-Manager搜索ollama选择stavsap的版本
  3. 手动安装:将项目克隆到ComfyUI的custom_nodes目录
git clone https://gitcode.com/gh_mirrors/co/comfyui-ollama
pip install -r requirements.txt

管理器安装界面

核心节点功能详解

OllamaGenerate节点

这是主要的文本生成节点,支持设置系统提示词和用户提示词,能够本地保存上下文。

输入参数:

  • OllamaConnectivity(可选)- 连接Ollama服务器
  • OllamaOptions(可选)- 高级推理配置
  • images(可选)- 用于视觉任务的图像
  • context(可选)- 其他OllamaConnectivity的上下文
  • meta(可选)- 从其他OllamaGenerate节点传递的元数据

重要说明:

  • 要使节点正常运行,必须输入OllamaConnectivity或meta参数
  • 如果输入了images并且使用了meta链,所有images都需要传递给下一个OllamaConnectivity节点

OllamaChat节点

专门用于对话式交互的节点,使用Ollama的专用聊天端点,原生管理完整的对话历史记录。

关键特性:

  • 对话历史在节点实例内原生管理
  • 专用的历史输出,用于链接多个聊天节点
  • 可按需重置当前对话历史

OllamaConnectivity节点

专门负责连接到Ollama服务器的节点。

OllamaOptions节点

用于完全控制Ollama API选项的节点。

高级生成选项

配置要点与最佳实践

认证配置

如果使用需要身份验证的Ollama云模板,必须提供Ollama公钥。

可以通过CLI自动配置:

ollama signin

或者手动在Ollama设置中添加公钥。

依赖管理

通过requirements.txt文件确保所有必要的Python库正确安装,这是环境搭建的关键参考。

运行时配置

在使用OllamaGenerate节点时,需要在界面上设置prompt等参数,也可以通过外部字段配置API密钥,这种方式提供了灵活的运行时配置选项。

使用示例与工作流程

项目提供了丰富的示例工作流程,位于example_workflows文件夹中,包括:

  • ollama-text.json - 基础文本生成
  • ollama-chat.json - 对话式交互
  • ollama-vision.json - 视觉任务处理
  • ollama-structured-output.json - 结构化输出
  • ollama-chained-generation.json - 链式生成

视觉任务示例

高级功能与技巧

上下文保存与加载

OllamaSaveContext和OllamaLoadContext节点允许你保存和加载模型上下文,这对于多轮对话或需要上下文的任务非常有用。

高级推理选项

通过OllamaOptions节点可以完全控制Ollama API选项,包括温度控制、重复惩罚、top-k采样等参数,每个选项都有启用/禁用开关。

多节点链接

支持通过meta和history参数链接多个节点,实现复杂的链式处理流程。

故障排除

如果遇到连接问题,请检查:

  • Ollama服务器是否正常运行
  • URL配置是否正确(默认为http://127.0.0.1:11434)
  • 模型是否已正确安装
  • 网络连接是否正常

通过合理利用这些功能,你可以充分发挥ComfyUI-Ollama的潜力,将大型语言模型无缝集成到ComfyUI工作流程中。

【免费下载链接】comfyui-ollama 【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值