ComfyUI-Ollama插件安装与使用指南

ComfyUI-Ollama插件安装与使用指南

【免费下载链接】comfyui-ollama 【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama

项目介绍

ComfyUI-Ollama是一个专为ComfyUI设计的自定义节点集,通过Ollama的Python客户端,让大型语言模型能够轻松集成到工作流程中进行实验和应用。

该项目基于Apache-2.0开源许可协议,当前版本为2.1.0,支持多种LLM模型的连接和调用,为ComfyUI用户提供了强大的文本生成和对话功能。

环境要求

在使用ComfyUI-Ollama之前,需要确保满足以下环境要求:

  • 运行中的Ollama服务器,且ComfyUI主机能够访问该服务器
  • Python环境支持
  • ComfyUI基础环境

安装步骤

1. 安装Ollama服务器

首先需要在目标主机上安装Ollama服务器。根据不同的操作系统,安装方法如下:

macOS系统: 下载macOS版本的Ollama安装包进行安装。

Windows系统: 下载Windows版本的Ollama安装程序进行安装。

Linux系统: 使用以下命令进行安装:

curl -fsSL https://ollama.com/install.sh | sh

Docker安装方式: CPU版本:

docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama

NVIDIA GPU版本:

docker run -d -p 11434:11434 --gpus=all -v ollama:/root/.ollama --name ollama ollama/ollama

2. 安装ComfyUI-Ollama节点

有多种方式可以安装ComfyUI-Ollama节点:

方式一:使用ComfyUI内置扩展管理器 在ComfyUI的扩展管理器中搜索comfyui-ollama,作者为Stav Sapir

方式二:使用ComfyUI-Manager 如果使用ComfyUI-Manager,搜索ollama并选择作者为stavsap的节点。

方式三:手动安装

  1. 将项目克隆到ComfyUI安装目录下的custom_nodes文件夹中
  2. 执行pip install -r requirements.txt安装依赖
  3. 启动或重启ComfyUI

配置说明

Ollama密钥配置

如果使用需要身份验证的Ollama云模板,必须提供Ollama公钥。

可以通过CLI自动配置:

ollama signin

或者手动添加公钥。公钥位置如下:

操作系统公钥路径
macOS~/.ollama/id_ed25519.pub
Linux/usr/share/ollama/.ollama/id_ed25519.pub
WindowsC:\Users<username>.ollama\id_ed25519.pub

节点功能详解

OllamaGenerate节点

该节点提供设置系统提示词和用户提示词的功能,支持在节点本地保存上下文。

输入参数:

  • OllamaConnectivity(可选)
  • OllamaOptions(可选)
  • images(可选)
  • context(可选),来自其他OllamaConnectivity的上下文
  • meta(可选),传递来自其他OllamaGenerate节点的元数据

重要说明:

  • 要使该节点正常运行,必须输入OllamaConnectivity或meta参数
  • 如果输入了images参数并且使用了meta链,所有images都需要传递给下一个OllamaConnectivity节点

OllamaChat节点

专为对话交互设计的节点,使用专用的Ollama聊天端点。它原生管理完整的对话历史,并支持聊天节点的链式序列。

主要特性:

  • 对话历史在节点实例内原生处理
  • 专为链接多个聊天节点设计的历史输出
  • 可按需重置当前对话历史

输入参数:

  • OllamaConnectivity(可选)
  • OllamaOptions(可选)
  • images(可选)
  • meta(可选),传递来自其他OllamaChat节点的元数据
  • history(可选),传递来自其他OllamaChat节点的历史ID

输出参数:

  • result:生成的文本
  • thinking:思考文本
  • meta:传递给下一个OllamaChat节点的元数据
  • history:传递给下一个OllamaChat节点的历史ID

OllamaConnectivity节点

该节点专门负责与Ollama服务器的连接。

OllamaOptions节点

该节点提供对Ollama API选项的完全控制。

要使选项生效,每个选项都有启用/禁用开关,启用的选项会传递给Ollama服务器的API调用。

注意: 还有一个额外的debug选项,用于在CLI中启用调试打印,这不是Ollama API的一部分。

版本更新说明

最新版本2.1.0主要更新内容包括:

  • 修复了Ollama云模型支持,新增OllamaChat节点
  • 云模型通过SSH密钥进行身份验证(无需API密钥)
  • 使用ollama.chat()方法实现云兼容性

使用示例

项目提供了丰富的工作流示例,位于example_workflows文件夹中,包含:

  • ollama-chained-generation.json:链式生成示例
  • ollama-chat-prompt-enhancement.json:聊天提示词增强示例
  • ollama-chat-vision.json:视觉聊天示例
  • ollama-structured-output.json:结构化输出示例
  • ollama-text.json:文本生成示例
  • ollama-vision.json:视觉生成示例

这些示例工作流展示了如何在ComfyUI中有效使用Ollama节点进行各种文本和图像处理任务。

注意事项

  • 旧版V1节点已被弃用,建议在工作流中替换为最新版本
  • 确保Ollama服务器正常运行且网络连接畅通
  • 对于云模型使用,请正确配置身份验证信息
  • 建议使用最新的Ollama Python客户端版本以获得最佳性能

通过合理配置和使用这些节点,用户可以在ComfyUI中构建强大的AI工作流,实现复杂的文本生成和对话任务。

【免费下载链接】comfyui-ollama 【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值