“
一夜之间,中国AI大模型DeepSeek-R1横扫硅谷,迅速引爆全球科技圈,英伟达AI科学家Jim Fan发文感叹:“一家非美国公司,正在让OpenAI的初衷得以延续——真正开放、为所有人赋能的前沿研究”。是的,DeepSeek-R1不仅性能媲美OpenAI O1,更做到了完全开源。
”
DeepSeek-R1模型的发布,让我们可以更好地使用开源大语言模型运行推理任务。现在,R1模型可以通过DeepSeek API获得,也就是说我们可以将其集成到我们的工作流程中。更好的消息是,Ollama在他们的库中添加了几个版本的R1模型,现在我们可以在本地使用Ollama运行R1模型。
现在你将可以做到一个命令建立你的本地知识库❗︎全程3分钟❗︎仅需2GB内存❗︎无需GPU运行❗︎安装即用❗︎快速使用❗︎
下面我们将使用「具有RAG功能的完整端到端文档管道」的AI搜索引擎开发框架LeetTools,在本地运行Ollama的R1模型。由于我们使用DuckDB作为后端,整个流程可以轻松地安装在一台具有16GB RAM且没有专用GPU的笔记本电脑中。
’
演示
📌 安装 Ollama
1. 按照以下说明操作 https://github.com/ollama/ollama 安装ollama程序。
# if the ollama program is not running, start it with the following command
ollama serve
2. 加载ollama 模型:
% ollama pull deepseek-r1:1.5b
% ollama pull nomic-embed-text
📌 安装 LeetTools
% conda create -y -n leettools python=3.11
% conda activate leettools
% pip install leettools
# where we store all the data and logs
% export LEET_HOME=${HOME}/leettools
% mkdir -p ${LEET_HOME}
% cat > .env.ollama <<EOF
# need tot change LEET_HOME to the correct path
LEET_HOME=</Users/myhome/leettools>
EDS_DEFAULT_LLM_BASE_URL=http://localhost:11434/v1
EDS_LLM_API_KEY=dummy-key
EDS_DEFAULT_INFERENCE_MODEL=deepseek-r1:1.5b
EDS_DEFAULT_EMBEDDING_MODEL=nomic-embed-text
EDS_EMBEDDING_MODEL_DIMENSION=768
EOF
📌 用一个命令建立你的本地知识库
通过一个命令行,我们可以使用URL中的PDF文件构建知识库。如果需要,你还可以添加更多URL。
# this is a great LLM introduction book with 231 pages
leet kb add-url -e .env.ollama -k llmbook -l info \
-r https://arxiv.org/pdf/2501.09223
📌 使用R1查询你的本地知识库
以下命令将使用LLM构建指南中的内容,使用R1模型回答问题。
leet flow -t answer -e .env.ollama -k llmbook -p retriever_type=local -l info \
-p output_language=cn -q "How does the FineTune process Work?"
📌 资源使用情况
这个过程最强的地方就是,整个管道只使用了大约2GB的内存,不需要特殊的GPU来运行:
带有RAG服务后端的LeetTools文档管道使用了大约350MB的内存
R1型号使用大约1.6GB的内存,嵌入式型号使用大约370MB的内存
% ollama ps
NAME ID SIZE PROCESSOR UNTIL
deepseek-r1:1.5b a42b25d8c10a 1.6 GB 100% CPU 4 minutes from now
nomic-embed-text:latest 0a109f422b47 370 MB 100% CPU 4 minutes from now
👇点击阅读原文,获取开源地址
🚀帮我们点亮一颗🌟,愿您的开发之路星光璀璨