RAG
文章平均质量分 94
*星星之火*
从菜鸟到专家,陪同大家一起成长
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【大模型评估】大模型评估框架 HELM(Holistic Evaluation of Language Models)全解析:原理、工具与实践
摘要 HELM(Holistic Evaluation of Language Models)是斯坦福大学提出的大模型评估框架,通过三维场景矩阵(任务、领域、语言)和多层指标体系(性能、特性、伦理、效率)实现全面评估。其开源工具(如crfm-helm)支持标准化任务测试(如MNLI、SQuAD)和自定义扩展,覆盖闭源与开源模型,并重点考量伦理安全与工程效率。相比OpenCompass等框架,HELM更强调合规性与多维度分析,适用于学术研究与企业级模型评估。实践示例展示了如何通过API快速测试模型在特定任务(原创 2025-10-01 11:51:31 · 1081 阅读 · 0 评论 -
【RAG】一文搞懂 RAG 效果评估:从检索层到端到端,指标、工具、流程全攻略
【摘要】RAG(检索增强生成)效果评估需从检索准确性、生成质量和整体实用性三个维度展开,构建全链路评估体系。评估分为检索层(Precision@k、Recall@k等指标)、生成层(Faithfulness、BLEU等)和端到端(用户满意度、任务完成率),需结合定量指标与人工定性评估。高质量数据集(如RAGAs Benchmark)和自动化工具(RAGAs、LangChain等)可提升评估效率。最终通过错误分析优化检索和生成环节,确保RAG系统在实际场景中的实用性。原创 2025-10-13 10:42:57 · 1220 阅读 · 0 评论 -
【RAG】从流程角度拆解 RAG 效果优化:覆盖数据、检索、生成全链路的 12 种核心方法
本文系统梳理了RAG(检索增强生成)全流程优化的12种核心方法,涵盖数据预处理、检索、生成和反馈迭代四大环节。在数据环节,提出语义化拆分、文档清洗和元数据增强三大优化方向;在检索环节,强调多源召回融合和重排序优化;在生成环节,重点优化Prompt指令、上下文管理和幻觉抑制;最后通过构建反馈闭环实现持续优化。文章指出RAG优化需系统性修复各环节短板,而非单点调整,才能实现整体性能提升。原创 2025-10-13 08:57:54 · 713 阅读 · 0 评论
分享