RAG技术简介

一、RAG核心概念

1. 定义
RAG(Retrieval-Augmented Generation)是一种通过实时检索外部知识库增强大语言模型(LLM)生成能力的技术,解决LLM的三大痛点:

  • 知识冻结:传统LLM无法动态更新知识

  • 幻觉问题:生成内容缺乏事实依据

  • 领域局限:通用模型在垂直领域表现不足

2. 核心组件

组件作用
检索器(Retriever)从知识库中查找相关文档(如BM25/向量检索)
知识库(Knowledge Base)结构化/非结构化数据存储(PDF、数据库等)
生成器(Generator)基于检索结果的LLM(如GPT、ChatGLM)

二、技术原理

1. 工作流程

2. 关键技术

  • 稠密检索(Dense Retrieval):使用嵌入模型(如text2vec)将文本映射为向量空间

  • 最大边际相关性(MMR):平衡检索结果的相关性与多样性

  • 上下文窗口压缩:通过摘要或选择性注意力机制处理长文档

三、实现流程与代码示例

步骤1:知识库构建

# 使用pdfplumber解析中文PDF
import pdfplumber
from langchain.text_splitter import ChineseTextSplitter

def load_pdf(file_path):
    with pdfplumber.open(file_path) as pdf:
        pages = [p.extract_text() for p in pdf.pages]
    return ChineseTextSplitter().split_text("\n".join(pages))

chunks = load_pdf("医疗知识库.pdf")  # 获得分块后的文本列表
步骤2:向量化与索引

# 使用text2vec构建本地向量库
from text2vec import SentenceModel
import faiss
import numpy as np

model = SentenceModel("shibing624/text2vec-base-chinese")
vectors = [model.encode(chunk) for chunk in chunks]

# 创建FAISS索引
dimension = vectors[0].shape[0]
index = faiss.IndexFlatIP(dimension)  # 内积相似度
index.add(np.array(vectors).astype('float32'))
faiss.write_index(index, "medical_index.faiss")
步骤3:检索增强生成

# 集成ChatGLM3-6B本地模型
from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True).half().cuda()

def rag_query(query, top_k=3):
    # 1. 检索
    query_vec = model.encode(query)
    distances, indices = index.search(np.array([query_vec]).astype('float32'), top_k)
    context = "\n".join([chunks[i] for i in indices[0]])
    
    # 2. 生成
    prompt = f"基于以下医学资料回答,若不知道则说未知:\n{context}\n\n问题:{query}"
    response, _ = model.chat(tokenizer, prompt)
    return response

# 示例:医疗咨询
print(rag_query("糖尿病患者应该如何控制饮食?"))

四、部署方案

1. 轻量级部署

# 使用FastAPI暴露服务
pip install fastapi uvicorn

# api_server.py
from fastapi import FastAPI
app = FastAPI()

@app.post("/ask")
async def ask(question: str):
    return {"answer": rag_query(question)}

启动服务:

uvicorn api_server:app --host 0.0.0.0 --port 8000

2. 企业级架构

五、应用场景示例

领域应用案例技术要点
医疗咨询基于最新指南回答患者问题医学文献PDF解析+术语增强检索
法律助手根据法条生成合同条款法律条文结构化索引+精确引用
教育辅导解析教材解答习题多模态检索(文本+公式图片)
电商客服实时查询商品政策回答用户商品数据库SQL转自然语言

六、关键问题与解决方案

1. 检索精度不足

  • 解决方法

    # 混合检索策略(关键词+向量)
    from rank_bm25 import BM25Okapi
    bm25 = BM25Okapi([jieba.lcut(chunk) for chunk in chunks])
    keyword_scores = bm25.get_scores(jieba.lcut(query))
    combined_scores = 0.5*vector_scores + 0.5*keyword_scores

2. 上下文过长

  • 解决方法:动态摘要

    from langchain.chains.summarize import load_summarize_chain
    chain = load_summarize_chain(llm, chain_type="map_reduce")
    summarized = chain.run(context_docs)

3. 知识更新延迟

  • 解决方法:建立增量索引管道

    # 使用Watchdog监控文件变化
    from watchdog.observers import Observer
    class FileHandler(FileSystemEventHandler):
        def on_modified(self, event):
            update_vector_index(event.src_path)

七、扩展方向

  1. 多模态RAG

    • 使用CLIP处理图像检索

    • 视频语音转文本后建立索引

  2. 自优化系统

    • 通过用户反馈数据微调检索器

  3. 边缘部署

    • 使用TensorRT加速本地LLM推理

八、性能评估指标

指标计算方法达标参考值
检索召回率@K前K个结果中包含正确答案的比例@3 > 0.85
生成事实准确性人工评估答案与参考文档的一致性>90%匹配
端到端延迟从查询到生成的总耗时<1.5s(本地LLM)

通过上述完整框架,开发者可构建适应不同场景的RAG系统,平衡效果、成本与实时性需求。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

墨顿

唵嘛呢叭咪吽

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值