DeepSeek R1与Qwen大模型,构建Agentic RAG全攻略

大家好,DeepSeek-R1作为一款极具变革意义的开源推理大语言模型(LLM),大家讨论最多的是它的基础能力,却鲜有人关注其在智能体工作流程中的巨大潜力,也就是多个模型动态协作的应用场景。

本文将介绍如何搭建一个智能体检索增强生成(RAG,Retrieval-Augmented Generation)系统。这个系统整合了DeepSeek-R1(70亿参数蒸馏版)、阿里云Qwen2.5(70亿参数)和轻量级智能体框架。DeepSeek-R1用于复杂推理,是系统的 “智慧大脑”;阿里云Qwen2.5主打快速对话交互,让用户交流体验更流畅;轻量级智能体框架协调前两者,保障系统高效运转。完成搭建后,Qwen 会处理常规交互,复杂查询则交给R1。

1.设置环境

1.1 设置虚拟环境并安装依赖项

python3 -m venv .envs/agentic-ai
source .envs/agentic-ai/bin/activate
mkdir agentic-ai 
cd agentic-ai

pip install langchain langchain-huggingface langchain-community pypdf langchain_chroma
pip install chromadb smolagents python-dotenv gradio sentence-transformers
pip 'install smolagents[openai]' 

1.2 配置Ollama

DeepSeek的第一代推理模型性能可与OpenAI-o1媲美,其中包括基于Llama和Qwen从DeepSeek-R1蒸馏得到的6个密集模型。

Qwen 2.5模型在阿里巴巴最新的大规模数据集上进行预训练,该数据集包含多达18万亿个标记。该模型支持多达12.8万个标记,并具备多语言能力。

下载模型:

ollama pull deepseek-r1:7b  
ollama pull qwen2.5:7b-instruct

Ollama默认的2048个标记不够用,创建自定义模型文件deepseek-r1-7b-8k.Modelfileqwen2.5-7b-instruct-8k.Modelfile

$ cat deepseek-r1-7b-8k.Modelfile 
FROM deepseek-r1:7b 
PARAMETER num_ctx 8192

$ cat qwen2.5-7b-instruct-8k.Modelfile
FROM qwen2.5:7b-instruct  
PARAMETER num_ctx 8192
ollama create deepseek-r1-7b-8k -f ./deepseek-r1-7b-8k.Modelfile
ollama create qwen2.5:7b-instruct-8k -f ./qwen2.5-7b-instruct-8k.Modelfile

2.创建知识库

2.1 添加文档

将PDF文件放在data/目录下,这些文件将构成知识库的基础。使用LangChain的DirectoryLoader加载PDF文件,并使用RecursiveCharacterTextSplitter将其拆分为较小的块,以便进行高效的索引和检索。这样能确保内容以结构化方式处理,更便于查询和管理。

from langchain_community.document_loaders import DirectoryLoader, PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_huggingface import Hu
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

python慕遥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值