第3节 茴香豆:搭建你的 RAG 智能助理

本文介绍了RAG技术,一种利用检索和生成增强LLM性能的方法,讨论了其工作原理、发展进程和优化策略,以及与微调的对比。同时,详细剖析了茴香豆模型,包括其构建、工作流程和应对新知识的策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

本节课的主要内容:
在这里插入图片描述

RAG介绍

原始的InternLM2-Chat-7B无法回答茴香豆是什么,而针对这种新增知识的情况,想要没有训练过程实现垂直领域的LLM助手,就用到了RAG技术。
在这里插入图片描述

RAG定义

利用检索和生成技术,通过外部知识库来增强LLM的性能。
在这里插入图片描述

RAG工作原理

索引、检索、生成
在这里插入图片描述

向量数据库

在这里插入图片描述

RAG工作流程

在这里插入图片描述

RAG发展进程

图中展示了三种RAG范式:Naive RAG、Advanced RAG、Modular RAG
在这里插入图片描述

RAG常见优化方法

  • 嵌入优化、索引优化、查询优化、上下文管理
    其中后两种方法就是Advanced RAG范式中提出的前检索和后检索部分。
  • 常见的三种检索方式:迭代检索、递归检索、自适应检索
  • 大模型技术:LLM微调
    在这里插入图片描述

RAG和微调的对比

在这里插入图片描述

LLM模型优化方法比较

LLM常用优化方法:微调、提示工程、RAG技术
从任务对外部知识需求和对模型适配度的需求两个方面来对比。
在这里插入图片描述
RAG对外部知识需求大,微调对模型适配度需求大。
提示工程对两者需求都不大,但是不能适应新知识,对特定任务也很难有专业的表现。

如何评价RAG技术

一般对检索和生成分别评价
在这里插入图片描述

RAG总结

在这里插入图片描述

茴香豆介绍

在这里插入图片描述

茴香豆的核心特性

在这里插入图片描述

茴香豆的构建

组成部分:知识库、前端、大模型、茴香豆
在这里插入图片描述

茴香豆的工作流

三个部分:预处理、拒答工作流、应答工作量
在这里插入图片描述

茴香豆完整工作流

在这里插入图片描述
为了能够更加有效的回答,应答模块采用多来源检索、混合模型、安全评估等方式来确保回答内容的准确性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值