DeepSeek+LangChain:家教式全流程RAG实战指南

在这里插入图片描述

ℹ️RAG全称是Retrieval-Augmented Generation(检索增强生成),一句话解释就是:把问题和相应的参考资料一起给大模型,以期望得到效果更好的模型表现。

ℹ️LangChain包含用于开发大语言模型应用的各种功能组件,不仅仅是RAG,所以相较于RAGFlow、HayStack等专门为RAG设计的框架来说,功能更为丰富,更“笨重”,学习门槛更高。

第一步,环境准备

参见requirements.txt。主要Python库:

在这里插入图片描述

第二步,模型调用

这里使用的DeepSeek官方提供的API。访问DeepSeek开放平台(https://platform.deepseek.com),创建API_KEY,有免费token额度,如果使用量比较大则需要充值:

在这里插入图片描述

在这里插入图片描述

DeepSeek采用和openai兼容的API格式,上图为设置相应环境变量。

然后就可以使用模型了,deepseek-chat代表DeepSeek-V3,如果使用DeepSeek-R1则名称填写为deepseek-reasoner:

在这里插入图片描述

第三步,文档加载与分割

文档不限制格式,这里以pdf为例:

在这里插入图片描述

ℹ️加载后的文档为Document对象。page_content属性保存的是文档内容,metadata属性保存的是文档元信息,比如来源、创建时间等。

ℹ️将文档切割成文档片段(chunks),方便存储、向量化与精确检索,每个片段仍然是Document对象,即一个个更小的文档。切割时可以设置每个片段的长度、重叠字符数(chunk_overlap)、切割标识符等参数,其中重叠字符数即相邻片段会有一定的重叠,这是为了避免把段落切得“太碎”,保持语义完整。

第四步,文本嵌入与向量化存储

第二步切割后的文档片段,使用文本嵌入模型(embedding model)将其映射为包含语义信息的向量,然后保存到向量数据库中。嵌入模型和向量数据库都有多种选择,这里使用阿里云百炼的text-embedding-v2嵌入模型和FAISS向量数据库作为示例:

在这里插入图片描述

申请阿里云百炼API key(https://bailian.console.aliyun.com/)并设置环境变量:

img

在这里插入图片描述

第五步,重排(ReRank)

在文本被嵌入成固定长度的向量后,会丢失一些信息,为了得到更准确的与prompt(即向量检索时的query)相关的文本,就要在向量检索后再利用重排模型对检索结果进行更精细的语义分析,重新排序,达到筛选出最相关信息和减少无关上下文的目的。

重排模型这里使用北京智源人工智能研究院的BAAI/bge-reranker-large,在Hugging Face上这是最热门的ReRank模型之一。

在这里插入图片描述

ℹ️LangChain已经集成了阿里云百炼的相关Python库,所以在第三步文本嵌入时我们直接使用了一个现成的嵌入模型调用接口DashScopeEmbeddings

⚠️而在重排时使用BAAI/bge-reranker-large则需要我们自己实现重排的相关逻辑,不过过程也很简单:

1.继承BaseDocumentCompressor

2.实现compress_documents方法

在这里插入图片描述

然后组合向量检索器和重排器:

在这里插入图片描述

第六步,设计提示词模板

这里构造提示词模板时,将提示词分为了两部分,一个是系统消息(system,用来表达上下文内容),另一个是用户消息(user,用来表达用户问题),其中context占位符用来填充从第四步中检索到的相关上下文,question占位符用来填充具体的问题。

img

第七步,构建链

LangChain中的chain最大特点即是把处理流程连接起来,前一步的输出作为后一步的输入,类似于管道操作,如SparkML中的pipeline或者Linux中的管道符。

⚠️一般用来构建链的对象是属于Runnable类型的。Runnable相当于抽象基类或者接口。

1.使用RunnableParallel组合上下文和问题,其中ccr即是第四步中检索加重排后得到的上下文

在这里插入图片描述

2.构建链

在这里插入图片描述

✅流程逻辑:

1️⃣retriever,用户输入的问题同时传给了ccr和RunnablePassthrough,ccr即检索加重排得到上下文,RunnablePassthrough不做操作返回问题

2️⃣chat_prompt,接收retriver传来的上下文和问题,填充提示词模版中的对应占位符得到完整提示词

3️⃣chat_llm,接收到完整提示词,进行模型推理

4️⃣CustomParser(),对模型推理返回的答案进行格式化

第八步,进行推理

在这里插入图片描述

LangChain中使用invoke方法执行链或模型。

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

### 使用 DeepSeekLangChain 处理电子病历 #### 结合 DeepSeek 的优势提升电子病历处理效率 DeepSeek 提供了一套完整的工具链来优化电子病历的创建和管理过程。医生可以通过语音输入患者的信息,DeepSeek 则能够迅速将其转换成结构化的电子病历文档[^1]。这种自动化方不仅提升了工作效率,也降低了由于手动记录可能带来的错误。 为了进一步提高数据的质量,在病历数据进入系统之前会经历一系列预处理操作,包括但不限于文本解析、信息抽取以及标准化映射等步骤。这一步骤由 `preprocess` 函数完成,它接收原始 EMR 数据作为参数并返回经过质量标记后的结果[^2]: ```python def preprocess(emr_data): # 解析非结构化文本 parsed = deepseek.nlp.parse(emr_data) # 抽取实体信息 entities = deepseek.ner(parsed) # 映射到标准格 standardized = emr_mapper(entities) # 添加质量标签 return quality_tagging(standardized) ``` #### 整合 LangChain 实现更强大的功能 LangChain 是一种基于检索增强生成 (Retrieval-Augmented Generation, RAG) 方法构建的应用框架,允许开发者轻松集成各种 NLP 模型和服务。当与 DeepSeek 协同工作时,可以为用户提供更加智能化的服务体验。例如,通过结合两者的能力,可以从海量的历史病例中找到相似案例,并据此给出诊疗建议;或是针对特定病症查询最新的研究成果和技术进展[^3]。 具体来说,如果想要开发这样一个应用程序,则需要先定义好如何获取及准备训练语料库,接着选择合适的模型架构来进行微调,最后部署服务接口以便其他应用调用。以下是简化版的工作流示意代码片段: ```python from langchain import LangChainModel import deepseek as ds # 初始化 LangChain 模型实例 model = LangChainModel() # 加载已有的医学文献资料集 corpus = load_medical_corpus() # 对新录入的病历执行预处理 processed_emr = preprocess(new_patient_record) # 查询最相关的几个历史案例 similar_cases = model.search_similar_cases(corpus, processed_emr) for case in similar_cases[:5]: print(f"Case ID:{case['id']}, Similarity Score={case['score']:.4f}") ``` 上述例子展示了怎样利用这两个平台的优势共同解决实际问题——即从现有资源里挖掘有价值的知识辅助临床决策制定过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值