ComfyUI-Ollama插件安装与使用指南
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
ComfyUI-Ollama是一个专门为ComfyUI设计的自定义节点集,通过Ollama的Python客户端,轻松地将大型语言模型集成到工作流程中进行实验和应用。这个强大的插件让你能够在可视化界面中与各种LLM模型进行交互,支持文本生成、视觉任务和多轮对话等多种功能。
项目目录结构解析
了解项目结构有助于更好地使用ComfyUI-Ollama:
- example_workflows - 包含多个示例工作流程文件,展示不同应用场景
- web/js - 前端交互JavaScript代码
- init.py - Python包初始化文件
- deprecated_nodes.py - 已弃用节点代码
- CompfyuiOllama.py - 主要节点实现代码
- pyproject.toml - 项目依赖和构建设置
- requirements.txt - 运行所需的Python库列表
- .meta - 包含项目截图和示例图片
环境准备与安装
第一步:安装Ollama服务器
在使用ComfyUI-Ollama之前,需要确保系统已运行Ollama服务器,并且ComfyUI主机能够正常访问它。
安装Ollama服务器的方法:
curl -fsSL https://ollama.com/install.sh | sh
或者使用Docker安装:
docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama
第二步:安装自定义节点
有三种安装方法:
- 使用ComfyUI内置的扩展管理器搜索
comfyui-ollama进行安装 - 使用ComfyUI-Manager搜索
ollama选择stavsap的版本 - 手动安装:将项目克隆到ComfyUI的
custom_nodes目录
git clone https://gitcode.com/gh_mirrors/co/comfyui-ollama
pip install -r requirements.txt
核心节点功能详解
OllamaGenerate节点
这是主要的文本生成节点,支持设置系统提示词和用户提示词,能够本地保存上下文。
输入参数:
- OllamaConnectivity(可选)- 连接Ollama服务器
- OllamaOptions(可选)- 高级推理配置
- images(可选)- 用于视觉任务的图像
- context(可选)- 其他OllamaConnectivity的上下文
- meta(可选)- 从其他OllamaGenerate节点传递的元数据
重要说明:
- 要使节点正常运行,必须输入OllamaConnectivity或meta参数
- 如果输入了images并且使用了meta链,所有images都需要传递给下一个OllamaConnectivity节点
OllamaChat节点
专门用于对话式交互的节点,使用Ollama的专用聊天端点,原生管理完整的对话历史记录。
关键特性:
- 对话历史在节点实例内原生管理
- 专用的历史输出,用于链接多个聊天节点
- 可按需重置当前对话历史
OllamaConnectivity节点
专门负责连接到Ollama服务器的节点。
OllamaOptions节点
用于完全控制Ollama API选项的节点。
配置要点与最佳实践
认证配置
如果使用需要身份验证的Ollama云模板,必须提供Ollama公钥。
可以通过CLI自动配置:
ollama signin
或者手动在Ollama设置中添加公钥。
依赖管理
通过requirements.txt文件确保所有必要的Python库正确安装,这是环境搭建的关键参考。
运行时配置
在使用OllamaGenerate节点时,需要在界面上设置prompt等参数,也可以通过外部字段配置API密钥,这种方式提供了灵活的运行时配置选项。
使用示例与工作流程
项目提供了丰富的示例工作流程,位于example_workflows文件夹中,包括:
- ollama-text.json - 基础文本生成
- ollama-chat.json - 对话式交互
- ollama-vision.json - 视觉任务处理
- ollama-structured-output.json - 结构化输出
- ollama-chained-generation.json - 链式生成
高级功能与技巧
上下文保存与加载
OllamaSaveContext和OllamaLoadContext节点允许你保存和加载模型上下文,这对于多轮对话或需要上下文的任务非常有用。
高级推理选项
通过OllamaOptions节点可以完全控制Ollama API选项,包括温度控制、重复惩罚、top-k采样等参数,每个选项都有启用/禁用开关。
多节点链接
支持通过meta和history参数链接多个节点,实现复杂的链式处理流程。
故障排除
如果遇到连接问题,请检查:
- Ollama服务器是否正常运行
- URL配置是否正确(默认为http://127.0.0.1:11434)
- 模型是否已正确安装
- 网络连接是否正常
通过合理利用这些功能,你可以充分发挥ComfyUI-Ollama的潜力,将大型语言模型无缝集成到ComfyUI工作流程中。
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考







