LlamaIndex
文章平均质量分 88
佑瞻
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
在AutoGen中构建 LlamaIndex 驱动的智能体:从文档理解到动态问答的完整实践
我们首先定义两个关键的数据模型,它们构成了智能体与外部交互的 "语言系统":pythoncontent: str # 资源内容node_id: str # 节点唯一标识score: Optional[float] = None # 匹配分数(可选)content: str # 消息内容sources: Optional[List[Resource]] = None # 来源资源列表(可选)Resource模型用于封装信息来源,包含内容、唯一标识和匹配分数,这在需要追溯回答来源时非常重要。原创 2025-06-27 19:02:46 · 755 阅读 · 0 评论 -
手把手教你用 LlamaIndex 构建多租户 RAG 系统,实现数据隔离与高效检索
python# 创建空索引# 定义数据处理管道(设置合适的分块参数)利用 LlamaIndex 的过滤机制创建专属查询引擎:python# 为Jerry创建查询引擎(仅返回user=Jerry的文档)filters=[),# 为Ravi创建查询引擎filters=[),这里的是实现多租户隔离的核心组件,它确保查询时只返回指定用户的文档节点。利用元数据标注实现租户身份绑定通过实现数据隔离查询单索引多租户架构的性能优化策略。原创 2025-06-16 15:41:46 · 1079 阅读 · 0 评论 -
在 LlamaIndex 中实现知识蒸馏:打造 GPT-3.5 成对比较裁判模型
通过这次实践,我们验证了在 LlamaIndex 框架下进行成对比较知识蒸馏的有效性。低成本高效益:仅用 72 个训练样本和 3 个 epoch 就实现了显著提升,单个 epoch 成本仅 0.47 美元性能接近 GPT-4:微调后的 GPT-3.5 与 GPT-4 的一致率达到 87.2%,相关性 0.765减少位置偏差:不确定结果数量减少 37.5%,评判更加稳定。原创 2025-06-16 12:14:25 · 793 阅读 · 0 评论 -
在 LlamaIndex 中实现知识蒸馏:构建 GPT-3.5 评判模型的实战指南
通过这次实践,我们验证了在 LlamaIndex 框架下进行知识蒸馏的有效性。低成本:仅用 79 个训练样本和 3 个 epoch 就实现了显著提升高效率:微调总成本约 0.3 美元,远低于直接使用 GPT-4易扩展:可以轻松扩展到其他领域的评判任务。原创 2025-06-16 12:03:45 · 821 阅读 · 0 评论 -
在 LlamaIndex 中实现函数调用微调:从结构化数据提取到 RAG 系统优化实战
首先需要使用 Pydantic 定义目标数据结构,以电影相关专辑生成为例:python运行"""歌曲数据模型"""title: str"""专辑数据模型"""name: strSong包含歌曲名称和时长,Album包含专辑名称、艺术家和歌曲列表。这种结构化定义是函数调用微调的基础。数据质量优先:使用 GPT-4 生成的 14 个电影专辑示例即可带来显著提升,数据不在多而在精模型绑定策略:始终使用output_cls将模型输出与 Pydantic 模型绑定RAG 系统适配。原创 2025-06-16 11:50:35 · 898 阅读 · 0 评论 -
在 LlamaIndex 中实现任务特定型 GPT-3.5 ReAct 智能体微调:财务报表推理优化实战
在构建大语言模型应用系统时,我们常面临一个核心挑战:如何让通用 LLM 在特定业务场景中实现专业化推理。LlamaIndex 框架提供了一套独特的微调范式 —— 通过工具集成、推理链数据增强和任务特定优化,在不修改模型底层参数的前提下,实现智能体在垂直领域的性能跃升。本文将以 Uber 财务报表分析为场景,系统拆解如何在 LlamaIndex 中完成从领域数据处理到智能体推理能力强化的全流程任务特定型微调。原创 2025-06-16 11:42:50 · 965 阅读 · 0 评论 -
手把手教你微调 GPT-3.5-Turbo:从数据生成到性能提升全流程实战
数据为王:61 个样本就有明显提升,但更多高质量数据(尤其是多样化场景)能进一步提升效果提示词设计:系统提示中的 “禁止直接引用上下文” 等规则,能有效规范模型输出格式成本控制:GPT-4 生成数据是成本大头,可以尝试用高质量人工标注数据替代评估重要性:Ragas 的忠实度指标一定要重点关注,否则微调可能让模型 “跑偏”原创 2025-06-16 11:23:44 · 1294 阅读 · 0 评论 -
交叉编码器深度解析:从技术原理到LlamaIndex路由应用
在 LlamaIndex 中,交叉编码器通常作为。原创 2025-06-15 19:20:20 · 502 阅读 · 0 评论 -
微调嵌入模型适配器:用 LlamaIndex 实现领域检索性能跃升
如果内置适配器无法满足需求,可自定义 PyTorch 模型:python运行# 带残差连接的前向传播return self.residual * output + embed # 残差连接# 初始化自定义适配器epochs=25非侵入式优化:不修改原始模型,适配黑盒场景高效迭代:相比全模型微调,训练时间减少 50% 以上平滑过渡:可随时切换回原始模型,降低部署风险。原创 2025-06-15 19:00:40 · 1053 阅读 · 0 评论 -
LlamaDeploy 手动编排实战:从代码到服务的完整部署流程
手动编排的核心不是 "写文件",而是通过 Python 代码显式控制每个组件的生命周期。从启动消息队列、控制平面到注册工作流服务,每一步都对应生产环境的实际组件运行。与自动部署的 "黑盒" 不同,手动编排让开发者能够完全掌控架构细节,这是构建复杂系统的必备能力。部署的本质是启动并连接多个服务进程,而手动编排提供了最高级别的控制能力。原创 2025-06-15 18:10:22 · 383 阅读 · 0 评论 -
LlamaDeploy 核心组件深度解析:构建多智能体应用的底层架构
通过深入理解 LlamaDeploy 的核心组件,我们掌握了构建可扩展智能体系统的关键。这些组件各司其职又紧密协作,让复杂的多服务部署变得可控。原创 2025-06-15 17:47:08 · 844 阅读 · 0 评论 -
深入理解 LlamaIndex 全局配置:从 LLM 到文本处理的全流程优化
python# 全局配置LLM(使用GPT-3.5,温度0.1降低随机性)# 后续创建查询引擎时无需重复配置LLMquery_engine = index.as_query_engine() # 自动使用全局LLM配置优化建议开发阶段:使用 GPT-4(model="gpt-4")获取更高质量回答生产阶段:切换为 GPT-4o(model="gpt-4o")降低成本多语言场景:根据语言设置对应模型(如中文使用 GPT-4-zh)原创 2025-06-15 16:40:45 · 1110 阅读 · 0 评论 -
LlamaIndex评估工具集成与生态拓展:DeepEval/UpTrain/Ragas 实战指南
功能:衡量答案摘要的完整性和准确性场景:文档摘要、长文本总结等场景参数:可配置摘要关键信息保留比例通过集成 DeepEval、UpTrain、Ragas 等工具,我们突破了单一框架的评估局限,构建了全方位的评估生态。这些工具就像不同领域的专家,共同为 LLM 应用的质量把把关。原创 2025-06-15 15:58:04 · 869 阅读 · 0 评论 -
LlamaIndex问题生成与批量评估:打造自动化评估流水线
通过问题自动生成与批量评估流水线,我们将评估效率提升 10 倍以上,让模型迭代从 "拍脑袋" 变成 "数据驱动"。这套自动化评估体系不仅适用于研发阶段,更能嵌入日常监控,持续保障服务质量。原创 2025-06-15 15:50:09 · 1115 阅读 · 0 评论 -
LlamaIndex 检索评估全指南:从数据集构建到指标优化
通过今天的内容,我们彻底搞清楚了检索评估的全流程:从指标定义到数据集构建,再到评估器实战。这些知识就像指南针,能帮我们在检索优化的过程中少走弯路。原创 2025-06-15 15:42:16 · 903 阅读 · 0 评论 -
LlamaIndex 响应评估实战:从正确性到忠实性的全流程优化
通过今天的实战,我们掌握了 LlamaIndex 响应评估的核心能力:从忠实性检测幻觉,到相关性确保主题一致。这些工具就像航海中的指南针,让我们在 LLM 应用开发的迷雾中始终保持正确方向。原创 2025-06-15 15:29:30 · 867 阅读 · 0 评论 -
LlamaIndex 工具系统深度解析:从 FunctionTool 到智能体开发全指南
通过深入理解 LlamaIndex 的工具系统,我们掌握了从基础工具定义到复杂智能体构建的全流程。优先使用社区 ToolSpecs,避免重复造轮子花时间优化工具名称和描述,这会显著影响调用效果处理大数据返回时,一定要使用实用工具进行索引根据场景选择是否使用 return_direct,平衡灵活性和效率。原创 2025-06-14 18:41:48 · 915 阅读 · 0 评论 -
LlamaIndex 记忆模块高级定制与工作流集成
通过继承可实现完全定制化的记忆逻辑,以下是一个统计关键词提及次数的示例:python"""统计特定关键词在对话中被提及的次数""""""处理新存入的消息,更新关键词计数""""""获取关键词提及统计结果"""return f"关键词 '{self.keyword}' 共被提及 {self.mention_count} 次""""自定义截断逻辑(此处不执行实际截断)"""return content # 示例中保留完整统计,实际可按需求截断。原创 2025-06-14 18:15:05 · 915 阅读 · 0 评论 -
LlamaIndex 记忆模块基础用法与核心架构
LlamaIndex 记忆模块默认使用tiktoken进行令牌计数,如需自定义计数逻辑可通过参数实现:python运行# 自定义令牌计数函数(示例:简单按空格分割)return len(text.split()) # 简化的令牌计数方式,实际应使用更精确的算法# 创建 Memory 时传入自定义令牌函数适配非 OpenAI 模型的令牌规则实现特定格式文本的优化计数集成第三方令牌统计工具。原创 2025-06-14 18:09:38 · 994 阅读 · 0 评论 -
LlamaIndex 节点后处理器全解析:从过滤优化到智能重排的检索增强实践
想象一下图书馆检索场景:我们通过关键词找到一堆书籍,但需要从中挑出最相关的几本。节点后处理器的作用正是如此 —— 在 LlamaIndex 的 RAG 流程中,它位于检索步骤之后、响应合成之前,通过过滤、重排、内容优化等操作提升输入质量。精准性提升:剔除相似度不足的节点,避免模型被无关信息干扰上下文优化:对长文本重新排序,解决模型对中间内容的访问瓶颈场景适配:支持时间加权、关键词过滤、隐私信息移除等定制化需求性能优化:减少冗余 tokens,降低 LLM 调用成本。原创 2025-06-14 16:41:26 · 830 阅读 · 0 评论 -
深入理解 LlamaIndex 节点后处理器:从过滤到优化的检索增强实践
如果内置后处理器无法满足需求,我们可以通过继承来创建自定义后处理器:python运行"""自定义关键词过滤后处理器,保留包含特定关键词的节点"""# 过滤出包含任意关键词的节点# 使用示例processor = CustomKeywordFilterPostprocessor(keywords=["人工智能", "机器学习"])# 输出过滤结果print(f"原始节点数: {len(nodes)}, 过滤后节点数: {len(nodes_after_filter)}")原创 2025-06-14 16:34:13 · 964 阅读 · 0 评论 -
在 LlamaIndex 中实现递归检索器与查询引擎的分层数据处理
递归检索器的核心在于它能够根据节点类型自动决定是直接返回文本,还是调用底层查询引擎:python# 初始化递归检索器"vector",retriever_dict={"vector": vector_retriever}, # 向量检索器query_engine_dict=df_id_query_engine_mapping, # 表格查询引擎映射# 初始化响应合成器# 组合成查询引擎这里的关键是。原创 2025-06-14 16:19:22 · 586 阅读 · 0 评论 -
RRF 算法在 LlamaIndex 中的应用:互逆重排融合检索器实现指南
互逆重排在 LlamaIndex 中的核心价值,是用3 行关键代码(组合检索器 + 设置 mode)解决多源检索的「偏科」问题。它不需要复杂的数学推导,也不用训练模型,特别适合希望快速落地、又追求结果全面性的程序员。下次做检索功能时,记得试试这个「不内卷」的排名融合技巧 —— 让不同检索器用「排名投票」,而不是「分数打架」。原创 2025-06-14 15:53:33 · 979 阅读 · 0 评论 -
LlamaIndex结构化分层检索实战:多文档RAG的高效检索方案
为每个文档生成包含摘要和元数据的IndexNode,并绑定底层检索器(关键一步!):python# 生成文档摘要(使用LLM)summary = summary_index.as_query_engine(llm=OpenAI()).query("生成一句话摘要")# 创建唯一标识过滤条件(用于底层检索)])retriever = doc_index.as_retriever(filters=filters) # 绑定过滤条件到检索器# 创建IndexNode(核心数据结构)原创 2025-06-14 15:33:21 · 1240 阅读 · 0 评论 -
深入理解元数据替换与节点句子窗口技术:从细粒度检索到上下文增强的实践指南
元数据替换与节点句子窗口技术的核心价值在于实现了 "精准检索" 与 "上下文理解" 的有机统一。细粒度与上下文的矛盾:通过单句索引 + 动态窗口,既精准又完整;LLM 对中间内容的忽视:将关键句置于窗口前部,提升关注度。原创 2025-06-14 12:05:11 · 652 阅读 · 0 评论 -
深入解析自动合并检索器:从层级节点到智能合并的技术实践
适用场景:生成书籍各章节的综合摘要;效果:通过合并章节内的关键节点,提升摘要的连贯性和信息完整性。自动合并检索器的核心价值在于通过 "层级化解析 + 递归合并 + 存储协同" 的三位一体设计,实现了 "精准检索" 与 "完整上下文" 的完美平衡。碎片化问题:通过父子节点关联,将分散信息整合成连贯上下文;效率与精度矛盾:向量存储与文档存储的协同,兼顾检索速度和内容完整性。原创 2025-06-14 11:39:46 · 695 阅读 · 0 评论 -
一文搞懂相互重排融合检索器:核心原理与快速应用指南
相互重排融合检索器的核心价值在于用低成本方式解决多源检索的精准性问题。先从向量 + BM25 的基础融合开始,验证效果;根据问题复杂度调整(复杂问题设为 4-5,简单问题设为 2-3);在代码注释中明确两种检索器的分工,提升可维护性。原创 2025-06-13 18:57:10 · 653 阅读 · 0 评论 -
一文搞懂查询融合检索器:从多源数据中精准获取信息
在构建智能检索系统时,我们常常面临这样的挑战:如何从多个数据源中高效获取最相关的信息?当文档分散在不同索引中,或者单一查询难以覆盖所有语义维度时,传统检索方法往往力不从心。而查询融合检索器通过创新的多源合并与查询扩展机制,为这个问题提供了优雅的解决方案。今天我们就来聚焦核心,快速掌握这一技术的本质与实践。查询融合检索器(QueryFusionRetriever)的核心能力在于将多个索引的检索结果与扩展查询结果进行智能融合,实现比单一检索更全面的信息获取。其技术特点包括:简单说,它就像一个智能的信息猎人,能从原创 2025-06-13 18:49:00 · 973 阅读 · 0 评论 -
一文搞懂 BM25 检索器:核心原理与快速上手指南
BM25 的核心价值在于:用简单高效的方式解决 TF-IDF 的固有缺陷,适合需要精准关键词匹配的场景。用上述代码跑通第一个 BM25 检索案例;在电商搜索、企业文档检索等场景测试效果;对比 BM25 与向量检索的差异,建立技术选型认知。原创 2025-06-13 18:36:32 · 1898 阅读 · 0 评论 -
深度解析 OpenAI 智能体模式:从工具注册到函数调用的完整技术实践
OpenAI 智能体模式的核心优势在于与 OpenAI 模型的深度集成,通过函数调用 API 实现简洁高效的工具调用;而 ReAct 模式则更注重通用性,通过标准化循环适配多种 LLM。选型建议若项目已基于 OpenAI 模型开发,且追求快速落地,优先选择 OpenAI 模式;若需要兼容多模型,或对调用流程的可控性要求更高,可考虑 ReAct 模式。原创 2025-06-13 18:20:08 · 922 阅读 · 0 评论 -
深入解析 ReAct 智能体模式:从架构设计到工程实践的技术指南
ReAct 模式通过将 "推理" 与 "行动" 解耦,开创了智能体设计的新范式。建立了标准化的工具调用协议实现了基于推理的动态决策机制构建了可解释的调用链追踪系统从单工具调用开始,熟练掌握基本决策流程优化索引结构与提示词工程,提升检索准确率逐步引入多工具协同与记忆机制,构建复杂系统。原创 2025-06-13 17:37:14 · 1200 阅读 · 0 评论 -
深入理解 LlamaIndex 聊天引擎:从概念到实践的全方位指南
通过 LlamaIndex 聊天引擎,我们实现了从 "单一问答" 到 "智能对话" 的跨越。当企业知识库能够理解对话上下文,当客服系统能记住用户的历史咨询,我们就打开了智能交互的新维度。原创 2025-06-13 17:21:08 · 1028 阅读 · 0 评论 -
自我纠正查询引擎技术解析:基于 LlamaIndex 的评估与重试机制
通过 GuidelineEvaluator 实现可定制的评估策略,支持添加多维度评估规则:python# 定义复合评估规则"响应不得过长","应尽量总结关键信息","必须包含具体时间或型号","避免无关哲学讨论"# 启用查询重合成的引擎。原创 2025-06-13 16:06:08 · 970 阅读 · 0 评论 -
LlamaIndex 多步查询引擎:复杂查询的层次化解析技术
多步查询引擎通过层次化分解策略,突破了传统问答系统在复杂查询处理上的瓶颈。语义理解深化:将 LLM 的推理能力融入查询处理流程工程可解释性:将黑盒推理转化为可追溯的子问题链条业务适应性:通过参数配置适应不同领域的查询模式。原创 2025-06-13 15:38:56 · 822 阅读 · 0 评论 -
LlamaIndex 实战:子问题查询引擎拆解复杂查询的技术实现
子问题查询引擎的核心价值在于将 "复杂查询→单一回答" 的传统模式,升级为 "问题拆解→多源应答→结果合成" 的分层处理架构。原创 2025-06-13 15:15:52 · 1066 阅读 · 1 评论 -
LlamaIndex 检索器路由查询引擎实战:动态调度多索引的技术实现
针对同一批文档数据构建两种特性互补的索引:python# 摘要索引:适用于概括性问题(如作者生平总览)# 向量索引:适用于细节检索(如特定时期经历)摘要索引的 LLM 令牌消耗为 0(基于文本摘要算法)向量索引产生 17038 个嵌入令牌消耗(文本向量化必然开销)原创 2025-06-13 15:03:03 · 724 阅读 · 0 评论 -
LlamaIndex Pandas 查询引擎:自然语言一键转 Pandas 代码的神器
拆解复杂查询为多个步骤自定义每个处理环节组合不同模块实现复杂逻辑python# 加载数据!# 1. 输入组件:接收查询字符串# 2. LLM组件:负责生成Pandas代码# 3. Pandas指令解析器:执行生成的代码# 4. 响应合成器:将结果转为自然语言response_prompt = PromptTemplate("根据查询结果回答:{pandas_output}")原创 2025-06-13 12:28:55 · 1006 阅读 · 0 评论 -
LlamaIndex JSON 查询引擎实战:从自然语言到 JSON Path 的智能转换
今天我们深入学习了 LlamaIndex JSON 查询引擎的核心能力,从基础的自然语言转换到复杂的嵌套数据查询,再到实际业务场景的应用。这一技术真正实现了 "自然语言驱动 JSON 检索" 的能力,大大降低了非技术人员的使用门槛。原创 2025-06-13 12:07:54 · 841 阅读 · 0 评论 -
LlamaIndex 混合检索实战:自定义检索器实现语义与关键词的高效融合
python"""支持AND/OR模式的混合检索器,实现语义与关键词检索结果的集合运算"""self,mode: str = "AND" # 默认使用交集模式,精确性优先) -> None:raise ValueError("仅支持AND/OR检索模式,当前模式无效")"""核心检索逻辑:执行双检索器查询并按模式合并结果"""# 1. 分别执行向量检索和关键词检索# 2. 提取节点ID用于集合运算# 3. 合并节点到字典,便于通过ID快速查找。原创 2025-06-13 11:53:27 · 847 阅读 · 0 评论 -
手把手教你在 LlamaIndex 中构建自定义查询引擎(进阶篇)
LlamaIndex 提供了基类,我们只需实现方法就能定义自己的查询逻辑。下面我们通过两种常见场景来演示如何构建自定义查询引擎。通过上面的例子,我们已经掌握了自定义查询引擎的基本实现。添加查询预处理:比如对查询进行关键词提取、意图识别优化检索逻辑:实现多阶段检索、基于用户历史的个性化检索增强响应控制:对 LLM 的 temperature、max_tokens 等参数进行动态调整集成工具调用:在查询过程中插入 API 调用、数据库查询等操作。原创 2025-06-12 19:06:49 · 1148 阅读 · 0 评论
分享