Dify+deepseek+ollama,windows本地部署

ollama安装

下载Ollama、以下两步可以不操作,直接双击安装(安装位置与模型均在C盘)

修改安装目录(可选)

在下载目录打开cmd、输入OllamaSetup.exe /DIR="D:\ollama"、回车后会弹出安装页面,直接下一步即可,D:\ollama为自定义目录,根据需要修改。

修改模型下载位置(可选)

配置环境变量,将模型默认下载目录改到其它位置,默认是C盘。

双击path新建D:\ollama(安装目录),点击用户变量中的新建,输入OLLAMA_MODELS
E:\models\ollama(自定义模型存放位置),再新建一个OLLAMA_HOST,值为:11434,否则Dify中无法使用ollama

配置后右下角重启ollama生效

模型安装

cmd 输入 ,7b可改为1.5b、8b、14b、32b、70b、671b

ollama run deepseek-r1:7b

安装其它模型 点击:

### DifyDeepSeek 本地部署教程 #### 准备工作 为了成功在 Mac 上完成 DifyDeepSeek本地部署,确保已经安装了必要的依赖项和软件包。这通常包括 Python 环境以及 Docker 或者其他容器解决方案来运行服务。 #### 配置环境变量 设置特定于项目的环境变量对于集成不同组件至关重要。当涉及到像 Ollama 这样的平台时,在 `/your/custom/path` 中定义自定义路径非常重要,比如 `/Users/yourusername/models`[^2]。此步骤有助于指定模型和其他资源存储的位置。 #### 安装与配置 Ollama Ollama 是连接 DifyDeepSeek 所必需的服务之一。为了让新设定的环境变量生效,需要重启 Ollama。可以通过“活动监视器”找到对应的进程并结束它,之后通过终端命令 `ollama serve` 来重新启动该服务。 #### 下载 DeepSeek 模型 根据计算机硬件条件挑选适合大小的预训练模型是优化性能的关键一步。对于一般用途来说,推荐先尝试较小规模的模型版本,例如 `deepseek-r1:1.5b`;而对于拥有更好计算能力的工作站,则可以选择更大型号如 `deepseek-r1:14b` 或 `deepseek-r1:32b`。下载所选模型可通过如下指令完成: ```bash ollama run deepseek-r1:1.5b ``` 如果目标是获取专门用于编程辅助的 DeepSeek 变体——即 `deepseek-coder`,则应执行下列命令来进行拉取操作[^3]: ```bash ollama pull deepseek-coder ``` #### 构建个人知识库 一旦上述准备工作就绪,就可以着手构建个性化的知识管理系统了。利用 Dify 平台提供的 API 接口和服务端点,能够轻松地将来自多个数据源的信息整合在一起,并借助 DeepSeek 实现智能化检索功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值