大模型-记忆
文章平均质量分 82
df007df
帮助大家从容面对面试,弥补平时工作中因没有时间而遗忘的八股文。
提供面经突击内容,作为面试突击或补齐多年Java基本功必备。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【大模型记忆-Mem0详解-8】核心组件-内存域
Mem0· 中的内存作提供 CRUD(创建、读取、更新、删除)功能以及高级搜索功能。Python SDK:同步和异步客户端类REST API:所有作的 HTTP 端点批量作 :高效批量处理多个存储器搜索作 :向量相似性和基于元数据的筛选所有内存作都支持元数据、筛选、版本控制和历史记录跟踪。原创 2025-09-16 18:26:10 · 754 阅读 · 0 评论 -
【大模型记忆-Mem0详解-7】核心组件-工厂系统
工厂系统由四个主要工厂类组成,用于处理跨不同组件类型的提供程序的动态实例化。每个工厂在创建实例之前维护提供程序映射并处理配置验证。原创 2025-09-16 17:53:07 · 317 阅读 · 0 评论 -
【大模型记忆-Mem0详解-6】核心组件-图形记忆
Graph Memory 与 Mem0 的向量存储一起作为并行存储系统运行,自动从对话数据中提取实体和关系并将其存储在图形数据库中。该系统使用 LLM 进行实体提取和关系建立,然后将结构化数据存储在支持的图形数据库中。原创 2025-09-16 17:42:58 · 975 阅读 · 0 评论 -
【大模型记忆-Mem0详解-5】核心组件-内存类,内存客户端
Mem0 内存系统采用模块化架构,支持同步/异步操作和LLM驱动的自动内存管理。核心组件包括会话管理、向量存储、SQLite历史跟踪和LLM事实提取。系统通过工厂模式实例化组件,支持多种内存类型处理,并提供Python/TypeScript SDK。MemoryClient作为平台接口,处理身份验证和API请求格式化,实现完整的内存CRUD操作和语义搜索功能。系统采用统一的请求处理管道,包含遥测捕获和错误处理机制。原创 2025-09-01 17:28:10 · 1094 阅读 · 0 评论 -
【大模型记忆-Mem0详解-4】核心组件
mem0系统提供了内存管理的核心架构,包含Memory和MemoryClient两个主要类。系统采用工厂模式动态创建LLM、嵌入模型等组件实例,支持灵活扩展。存储层由SQLiteManager、VectorStore、GraphStore和MemoryGraph组成,分别处理历史记录、语义搜索和图关系存储。内存操作流程协调向量存储和图存储系统,实现添加、搜索等核心功能。系统通过LLM驱动的工具从非结构化文本中提取结构化信息,构建知识图谱。整个架构支持开源部署和托管平台交互两种场景。原创 2025-09-01 17:07:58 · 470 阅读 · 0 评论 -
【大模型记忆-Mem0详解-3】安装和设置
Mem0 提供了两种不同的部署路径,具有不同的安装要求和设置过程:两个部署路径都使用相同的核心包,但需要不同的配置方法。JavaScript/TypeScript 安装该包为平台与开源使用提供了不同的导入路径:托管平台只需要一个 API 密钥,并使用 或 类。开源设置开源部署使用 Memory 类,需要配置 LLM 和嵌入提供程序。提供程序配置架构不同的提供程序需要配置特定的环境变量。配置示例Anthropic Claude 与 OpenAI 嵌入使用 Ollama 进行本地设原创 2025-09-01 16:55:37 · 1277 阅读 · 0 评论 -
【大模型记忆-Mem0详解-2】系统架构
托管平台 :通过 MemoryClient 和 AsyncMemoryClient 类访问的托管服务开源 :以 Memory 类为中心的自托管组件,具有可插拔提供程序此架构使开发人员能够在完全托管的解决方案或完全控制其内存基础结构之间进行选择,同时在两种部署模型中保持一致的 API。原创 2025-09-01 16:43:01 · 451 阅读 · 0 评论 -
【大模型记忆-Mem0详解-1】概述
Mem0是一个将无状态AI应用转化为有状态系统的智能记忆平台,提供持久记忆、多级存储和语义搜索等功能。其核心架构支持托管服务和自托管两种部署模式,采用工厂模式实现灵活组件配置。系统包含工作记忆、事实记忆等四种类型,通过LLM实现智能记忆管理。Mem0显著优化了性能,减少90%令牌使用并提升91%响应速度,同时作为中央记忆层与多种AI框架集成。平台支持向量数据库、图数据库等多种存储后端,为AI应用提供全面的记忆管理解决方案。原创 2025-08-31 22:26:04 · 787 阅读 · 0 评论 -
【大模型记忆-1】LangMem核心概念
如果系统过度提取,当您的智能体需要搜索存储时,可能会导致记忆的精确度降低。“潜意识”记忆形成指的是在对话发生后(或在一段时间不活动后)提示 LLM 对话进行反思,从而发现模式和提取见解,而不会减慢即时互动或增加智能体工具选择决策的复杂性。在使用 LangMem 的有状态操作符或平台服务时,存储系统建立在 LangGraph 的存储原语之上,提供了一种灵活而强大的方式来组织和访问记忆。LLM 应用中的记忆可以反映人类记忆的某些结构,每种类型在构建自适应、具备上下文感知能力的系统中都扮演着独特的角色。原创 2025-08-28 16:43:13 · 962 阅读 · 0 评论
分享