最近家属有个需求,想用DeepSeek,但是DeepSeek在线版总是服务器繁忙,而且不具备知识库的能力。
家里正好有台电脑闲置,索性尝试了一下本地部署。
最后选择的是Ollama + deepseek-r1:7b + anythingLLM
| Ollama | deepseek-r1:7b | anythingLLM |
![]() |
![]() |
![]() |
一共3步就可以
- 下载Ollama
下载地址:https://ollama.com/
首页有个Download按钮,直接点击下载就好,下载完成后解压安装即可。
- 本地安装deepseek-r1:7b模型
ollama run deepseek-r1:7b
本地部署DeepSeek实现高效知识检索




最低0.47元/天 解锁文章
1801

被折叠的 条评论
为什么被折叠?



