ComfyUI-Ollama插件安装与使用指南
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
项目介绍
ComfyUI-Ollama是一个专为ComfyUI设计的自定义节点集,通过Ollama的Python客户端,让大型语言模型能够轻松集成到工作流程中进行实验和应用。
该项目基于Apache-2.0开源许可协议,当前版本为2.1.0,支持多种LLM模型的连接和调用,为ComfyUI用户提供了强大的文本生成和对话功能。
环境要求
在使用ComfyUI-Ollama之前,需要确保满足以下环境要求:
- 运行中的Ollama服务器,且ComfyUI主机能够访问该服务器
- Python环境支持
- ComfyUI基础环境
安装步骤
1. 安装Ollama服务器
首先需要在目标主机上安装Ollama服务器。根据不同的操作系统,安装方法如下:
macOS系统: 下载macOS版本的Ollama安装包进行安装。
Windows系统: 下载Windows版本的Ollama安装程序进行安装。
Linux系统: 使用以下命令进行安装:
curl -fsSL https://ollama.com/install.sh | sh
Docker安装方式: CPU版本:
docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama
NVIDIA GPU版本:
docker run -d -p 11434:11434 --gpus=all -v ollama:/root/.ollama --name ollama ollama/ollama
2. 安装ComfyUI-Ollama节点
有多种方式可以安装ComfyUI-Ollama节点:
方式一:使用ComfyUI内置扩展管理器 在ComfyUI的扩展管理器中搜索comfyui-ollama,作者为Stav Sapir。
方式二:使用ComfyUI-Manager 如果使用ComfyUI-Manager,搜索ollama并选择作者为stavsap的节点。
方式三:手动安装
- 将项目克隆到ComfyUI安装目录下的
custom_nodes文件夹中 - 执行
pip install -r requirements.txt安装依赖 - 启动或重启ComfyUI
配置说明
Ollama密钥配置
如果使用需要身份验证的Ollama云模板,必须提供Ollama公钥。
可以通过CLI自动配置:
ollama signin
或者手动添加公钥。公钥位置如下:
| 操作系统 | 公钥路径 |
|---|---|
| macOS | ~/.ollama/id_ed25519.pub |
| Linux | /usr/share/ollama/.ollama/id_ed25519.pub |
| Windows | C:\Users<username>.ollama\id_ed25519.pub |
节点功能详解
OllamaGenerate节点
该节点提供设置系统提示词和用户提示词的功能,支持在节点本地保存上下文。
输入参数:
- OllamaConnectivity(可选)
- OllamaOptions(可选)
- images(可选)
- context(可选),来自其他OllamaConnectivity的上下文
- meta(可选),传递来自其他OllamaGenerate节点的元数据
重要说明:
- 要使该节点正常运行,必须输入OllamaConnectivity或meta参数
- 如果输入了images参数并且使用了meta链,所有images都需要传递给下一个OllamaConnectivity节点
OllamaChat节点
专为对话交互设计的节点,使用专用的Ollama聊天端点。它原生管理完整的对话历史,并支持聊天节点的链式序列。
主要特性:
- 对话历史在节点实例内原生处理
- 专为链接多个聊天节点设计的历史输出
- 可按需重置当前对话历史
输入参数:
- OllamaConnectivity(可选)
- OllamaOptions(可选)
- images(可选)
- meta(可选),传递来自其他OllamaChat节点的元数据
- history(可选),传递来自其他OllamaChat节点的历史ID
输出参数:
- result:生成的文本
- thinking:思考文本
- meta:传递给下一个OllamaChat节点的元数据
- history:传递给下一个OllamaChat节点的历史ID
OllamaConnectivity节点
该节点专门负责与Ollama服务器的连接。
OllamaOptions节点
该节点提供对Ollama API选项的完全控制。
要使选项生效,每个选项都有启用/禁用开关,启用的选项会传递给Ollama服务器的API调用。
注意: 还有一个额外的debug选项,用于在CLI中启用调试打印,这不是Ollama API的一部分。
版本更新说明
最新版本2.1.0主要更新内容包括:
- 修复了Ollama云模型支持,新增OllamaChat节点
- 云模型通过SSH密钥进行身份验证(无需API密钥)
- 使用
ollama.chat()方法实现云兼容性
使用示例
项目提供了丰富的工作流示例,位于example_workflows文件夹中,包含:
- ollama-chained-generation.json:链式生成示例
- ollama-chat-prompt-enhancement.json:聊天提示词增强示例
- ollama-chat-vision.json:视觉聊天示例
- ollama-structured-output.json:结构化输出示例
- ollama-text.json:文本生成示例
- ollama-vision.json:视觉生成示例
这些示例工作流展示了如何在ComfyUI中有效使用Ollama节点进行各种文本和图像处理任务。
注意事项
- 旧版V1节点已被弃用,建议在工作流中替换为最新版本
- 确保Ollama服务器正常运行且网络连接畅通
- 对于云模型使用,请正确配置身份验证信息
- 建议使用最新的Ollama Python客户端版本以获得最佳性能
通过合理配置和使用这些节点,用户可以在ComfyUI中构建强大的AI工作流,实现复杂的文本生成和对话任务。
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



