ComfyUI-Ollama完整指南:3步快速集成AI大模型到工作流
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
ComfyUI-Ollama是一个专门为ComfyUI设计的自定义节点集,通过Ollama的Python客户端,让开发者能够轻松地将大型语言模型集成到工作流程中。无论你是想要在AI绘画流程中增加智能文本生成,还是希望实现工作流自动化,这个插件都能帮你快速实现目标。
🚀 项目概述与核心价值
ComfyUI-Ollama的核心价值在于简化AI大模型集成,让你无需编写复杂代码就能在可视化界面中调用各种LLM模型。该插件支持本地部署的Ollama服务器,让你完全掌控数据安全和模型选择。
主要优势:
- 可视化操作,零代码集成
- 支持多种模型格式和配置选项
- 完整的对话历史管理功能
- 与ComfyUI工作流无缝衔接
📥 快速安装部署步骤
第一步:安装Ollama服务器
在开始之前,你需要确保有一个运行中的Ollama服务器。根据你的操作系统选择合适的安装方式:
Linux系统安装:
curl -fsSL https://ollama.com/install.sh | sh
Docker方式安装(CPU版本):
docker run -d -p 11434:11434 -v ollama:/root/.ollama --name ollama ollama/ollama
第二步:安装ComfyUI-Ollama插件
有三种方式可以安装这个插件:
- 使用ComfyUI扩展管理器:搜索"comfyui-ollama"并安装
- 使用ComfyUI-Manager:搜索"ollama"选择对应版本
- 手动安装:
git clone https://gitcode.com/gh_mirrors/co/comfyui-ollama custom_nodes/comfyui-ollama cd custom_nodes/comfyui-ollama pip install -r requirements.txt
第三步:配置Ollama密钥
如果你使用需要认证的Ollama云模板,需要配置公钥:
ollama signin
公钥文件位置:
- macOS: ~/.ollama/id_ed25519.pub
- Linux: /usr/share/ollama/.ollama/id_ed25519.pub
- Windows: C:\Users<username>.ollama\id_ed25519.pub
🔧 核心功能详解
OllamaGenerate节点
这是最基础的生成节点,允许你设置系统提示词和用户提示词。关键特性包括:
- 上下文保存:可选择在本地节点启用/禁用上下文保存
- 图像输入:支持多模态输入
- 元数据传递:可在节点间传递连接和配置信息
重要提示:此节点需要OllamaConnectivity或meta输入才能正常工作!
OllamaChat节点
专为对话交互设计的节点,使用Ollama专用聊天端点:
- 完整对话历史管理:节点实例内原生处理对话历史
- 多节点链式连接:专用历史输出支持多个聊天节点串联
- 历史重置功能:按需重置当前对话历史
连接与配置节点
- OllamaConnectivity:专门负责与Ollama服务器的连接
- OllamaOptions:完整控制Ollama API选项
💡 实战应用场景
场景一:智能文本生成
在AI绘画工作流中,你可以使用OllamaGenerate节点为图像生成描述性文本或创意标题,实现文生图到图文互动的完整流程。
场景二:多轮对话系统
通过OllamaChat节点构建客服机器人或创意助手,在ComfyUI中实现复杂的对话逻辑。
场景三:提示词优化
利用插件的能力对原始提示词进行优化和扩展,提升AI生成质量。
🛠️ 常见问题排查
问题1:模型列表加载失败
解决方案:点击连接节点上的"重新连接"按钮重新加载模型列表。
问题2:节点无法正常工作
检查要点:
- 确保OllamaConnectivity或meta已正确输入
- 验证Ollama服务器是否正常运行
- 检查网络连接是否畅通
问题3:认证问题
解决方法:确保已正确配置Ollama公钥,可通过ollama signin命令完成认证。
⚡ 进阶配置技巧
工作流模板使用
项目中提供了丰富的示例工作流,位于example_workflows/目录。这些模板展示了插件的各种应用场景:
- 基础文本生成:example_workflows/ollama-text.json
- 对话增强:example_workflows/ollama-chat-prompt-enhancement.json
- 视觉理解:example_workflows/ollama-vision.json
JavaScript扩展开发
如果你需要定制前端交互,可以查看web/js/OllamaNode.js文件,了解节点的前端实现逻辑。
性能优化建议
- 合理设置keep_alive参数:控制模型在内存中的驻留时间
- 使用适当的上下文长度:根据任务需求调整num_ctx参数
- 批量处理任务:通过工作流优化减少模型加载次数
📈 版本更新与维护
根据CHANGE_LOG.md记录,项目持续更新维护:
- 2025年10月:修复Ollama云模型支持,新增OllamaChat节点
- 2025年8月:增加思考选项和独立输出,添加工具提示
- 2025年7月:增加用户种子支持,提升温度限制
通过ComfyUI-Ollama插件,你可以轻松实现AI大模型集成,将复杂的语言模型能力转化为直观的可视化操作。无论是创意工作还是技术开发,这个工具都能为你的项目带来强大的智能化支持。
【免费下载链接】comfyui-ollama 项目地址: https://gitcode.com/gh_mirrors/co/comfyui-ollama
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考





