大模型
文章平均质量分 94
分享大模型技术
余额抵扣
助学金抵扣
还需支付
¥9.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
河南骏
搬砖大阳
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
RAG_评估常用工具
的核心是“AI可观测性”,它通过追踪RAG系统内部的每一步调用(如检索、生成等),将整个流程可视化。的评估理念是利用LLM作为“裁判”,以自动化的方式对RAG系统的各个环节进行打分。它通过捕获LLM应用的轨迹(Traces),提供强大的可视化、切片和聚类分析能力,帮助开发者理解线上真实数据的表现。下面示例基于我们在第三章学习的“句子窗口检索”技术,通过评估,对比它与“常规分块检索”在响应质量上的差异。框架构建RAG应用的开发者而言,其内置评估模块是无缝集成的首选,提供了一站式的开发与评估体验。原创 2025-11-04 12:21:56 · 837 阅读 · 0 评论 -
RAG_评估
基于LLM的评估更注重语义和逻辑,评估质量高,但成本也更高且存在评估者偏见。基于词汇重叠的指标客观、计算快、成本低,但无法理解语义,可能误判同义词或释义。在实践中,可以将两者结合,使用经典指标进行快速、大规模的初步筛选,再利用LLM进行更精细的评估。原创 2025-11-04 12:14:14 · 766 阅读 · 0 评论 -
RAG_格式化输出
使用 Pydantic 的。原创 2025-11-04 12:03:38 · 583 阅读 · 0 评论 -
RAG_检索进阶
在前面我们就提到根据实际应用,需要自己进行一些功能的实现。这里以 ColBERT 为例,展示如何集成未被官方支持的功能。从官方文档出发:首先,通过 LangChain 官方文档,了解到可以通过来组合多个压缩器和文档转换器。需求缺口:希望使用 ColBERT 模型进行重排,但发现 LangChain 并没有内置的ColBERT重排器。分析示例与源码:回头分析的用法和源码。我们发现,其处理逻辑分为两步:首先使用获取原始文档,然后将这些文档交给进行压缩或重排。原创 2025-11-03 18:34:35 · 619 阅读 · 0 评论 -
RAG_查询重构与分发
首先创建一个。原创 2025-11-03 18:17:25 · 1042 阅读 · 0 评论 -
RAG_混合检索
在上一章中我们实现了多模态图文检索,现在还是同样的步骤先创建一个 Collection。import os# 1. 初始化设置MILVUS_URI = "http://localhost:19530" # 服务器模式DATA_PATH = "../../data/C4/metadata/dragon.json" # 相对路径# 2. 连接 Milvus 并初始化嵌入模型print(f"--> 正在连接到 Milvus: {MILVUS_URI}")原创 2025-10-31 16:40:28 · 830 阅读 · 0 评论 -
RAG_索引优化
它通过“精确检索小文本块(单个句子),再扩展上下文(句子窗口)”的方式,为大语言模型提供了高度相关且信息丰富的上下文,从而生成了质量更高的答案。该技术巧妙地结合了两种方法的优点:它在检索时聚焦于高度精确的单个句子,在送入LLM生成答案前,又智能地将上下文扩展回一个更宽的“窗口”,从而同时保证检索的准确性和生成的质量。在更复杂的场景中,结构化数据可能分布在多个来源中,例如一个包含多个工作表(Sheet)的 Excel 文件,每个工作表都代表一个独立的表格。等)提取并存入每个文本块的元数据中。原创 2025-10-30 20:49:19 · 942 阅读 · 0 评论 -
RAG_向量数据库
Pinecone是一款完全托管的向量数据库服务,采用Serverless架构设计。它提供存储计算分离、自动扩展和负载均衡等企业级特性,并保证99.95%的SLA。Pinecone支持多种语言SDK,提供极高可用性和低延迟搜索(<100ms),特别适合企业级生产环境、高并发场景和大规模部署。Milvus是一款开源的分布式向量数据库,采用分布式架构设计,支持GPU加速和多种索引算法。它能够处理亿级向量检索,提供高性能GPU加速和完善的生态系统。原创 2025-10-30 17:43:55 · 1017 阅读 · 0 评论 -
RAG_多模态嵌入
现代 AI 的一项重要突破,是将简单的词向量发展成了能统一理解图文、音视频的复杂系统。这一发展建立在等关键技术之上,它们解决了在共享向量空间中对齐不同数据模态的核心挑战。其发展环环相扣:Word2Vec 为 BERT 的上下文理解铺路,而 BERT 又为 CLIP 等模型的跨模态能力奠定了基础。原创 2025-10-30 16:56:49 · 722 阅读 · 0 评论 -
RAG_向量
向量嵌入(Embedding)是一种将真实世界中复杂、高维的数据对象(如文本、图像、音频、视频等)转换为数学上易于处理的、低维、稠密的连续数值向量的技术。想象一下,我们将每一个词、每一段话、每一张图片都放在一个巨大的多维空间里,并给它一个独一无二的坐标。这个坐标就是一个向量,它“嵌入”了原始数据的所有关键信息。这个过程,就是 Embedding。数据对象:任何信息,如文本“你好世界”,或一张猫的图片。Embedding 模型:一个深度学习模型,负责接收数据对象并进行转换。输出向量。原创 2025-10-30 16:01:38 · 536 阅读 · 0 评论 -
RAG_文本分块
语义分块(Semantic Chunking)是一种更智能的方法,这种方法不依赖于固定的字符数或预设的分隔符,而是尝试根据文本的语义内涵来切分。任何超出此限制的文本块在输入时都会被截断,导致信息丢失,生成的向量也无法完整代表原文的语义。: 最后,根据识别出的所有断点位置,将原始的句子序列进行切分,并将每个切分后的部分内的所有句子合并起来,形成一个最终的、语义连贯的文本块。: 这种两阶段的分块方法,既保留了文档的宏观逻辑结构(通过元数据),又确保了每个块的大小适中,是处理结构化文档进行RAG的理想方案。原创 2025-10-30 15:12:47 · 809 阅读 · 0 评论 -
RAG_数据加载
1、文档加载器将不同格式的文档(如PDF、Word、Markdown等)解析为文本内容。在解析文档内容的同时,提取相关的元数据信息,如文档来源、页码等。将解析后的内容转换为统一的数据格式,便于后续处理。当前主流RAG文档加载器工具名称。原创 2025-10-30 11:27:48 · 899 阅读 · 0 评论 -
RAG研究
RAG(Retrieval-Augmented Generation)是一种的技术范式。其核心逻辑是:在大型语言模型(LLM)生成文本前,先通过检索机制从外部知识库中动态获取相关信息,并将检索结果融入生成过程,从而提升输出的准确性和时效性。关键组件:1 、索引(indexing),将非结构化文档(PDF、word等)分割为片段,通过嵌入模型转换为向量数据。2、检索(Retrieval),基于查询语义,从向量数据库召回最相关的文档片段(context)。原创 2025-10-30 11:03:19 · 693 阅读 · 0 评论 -
RAG_基于知识图谱的RAG
近年来,学术界和工业界涌现出一批具有代表性的KG-RAG框架,它们在架构设计和应用场景上各有侧重。原创 2025-11-04 12:32:40 · 926 阅读 · 0 评论
分享