大模型
文章平均质量分 95
AI学长与深度学习
用算法解读万物
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
图解 | 大模型智能体LLM Agents
本文介绍了LLM代理的存储机制和工具使用方法。在存储方面,LLM具有短期记忆和长期记忆:短期记忆通过上下文窗口或总结对话历史实现;长期记忆则借助向量数据库和检索增强生成(RAG)技术存储历史交互。在工具使用方面,LLM可通过函数调用与外部环境交互,Toolformer等技术能训练模型自主调用API。此外,模型上下文协议(MCP)标准化了API访问流程,简化了工具集成。这些技术共同增强了LLM的记忆能力和功能性。原创 2025-05-25 23:49:07 · 1080 阅读 · 0 评论 -
论文解读|Anthropic提出Contextual Retrieval让RAG再进化,大幅降低检索失败率
2024年9月,Anthropic发布了一种名为Contextual Retrieval的新方案,旨在提升RAG(Retrieval-Augmented Generation)系统的检索准确性。该方案通过结合上下文嵌入(Contextual Embeddings)和上下文BM25(Contextual BM25),将检索失败率降低了49%。传统RAG系统在处理大型知识库时,通常将文档分割成小块进行检索,但这种方式容易丢失上下文信息,导致检索结果不准确。Contextual Retrieval通过在嵌入和BM原创 2025-05-13 00:40:36 · 732 阅读 · 0 评论
分享