RagFlow + Docker Desktop + Ollama + DeepSeek-R1本地部署自己的本地AI大模型工具

前期准备

首先,我们需要下载 Ollama 以及配置相关环境。

Ollama 的 GitHub仓库 (https://github.com/ollama/ollama)中提供了详细的说明,简单总结如下:

Step1:下载 Ollama

下载(https://ollama.com/download)并双击运行 Ollama 应用程序。

Step2:验证安装

命令行输入 ollama,如果出现以下信息,说明 Ollama 已经成功安装。

Step3:拉取模型
从命令行,参考 Ollama 模型列表 (https://ollama.com/library)和 文本嵌入模型列表 (https://python.langchain.com/v0.2/docs/integrations/text_

### DockerRAGFlow集成指南 #### 配置Docker环境以支持RAGFlow 为了使Docker容器能顺利运行RAGFlow应用,需指定正确的socket地址用于通信。例如,在某些环境中,`containerd`守护进程的Unix域套接字路径可能被设定为`/data/labs/runtimes/docker-24/containerd-debug.sock`[^1]。 对于依赖于Embedding服务的应用场景而言,确保位于`127.0.0.1:11434`的服务已经启动至关重要。这通常意味着要验证对应端口上的API接口是否可访问以及响应状态良好。当此服务由Docker管理时,则应进一步检查相关联的容器实例是否处于活动状态;可通过执行`docker ps`命令来获取当前活跃容器列表,从而判断目标服务是否正常运作[^2]。 #### 构建基于RAGFlow的知识库 一旦基础架构搭建完成,下一步就是利用RAGFlow平台构建专门针对特定业务需求的知识库。具体操作包括但不限于上传文档资料、解析文本内容等前置工作。之后还需调整对话逻辑配置,使得最终处理过的数据集能够适配至即时通讯工具如微信机器人中使用。有兴趣者可以通过官方提供的在线演示站点([https://demo.ragflow.io](https://demo.ragflow.io))先行探索各项功能特性,并按照指引录入必要的第三方服务商凭证信息(API Key),以便测试整个流程的有效性。而对于倾向于自行部署的企业级用户来说,《快速入门》手册([链接](https://ragflow.io/docs/dev/))将是不可或缺的重要参考资料之一。在此过程中,选择合适的预训练模型(比如Qwen所提供的"text-embedding-v2"版本),配合适用范围广泛的默认模板一起应用于项目实践中显得尤为关键[^3]。 ```bash # 查看所有正在运行中的Docker容器 docker ps ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值