“当全行业都在卷参数、卷算力的时候,我们把目光转向了记忆。”
在 GOSIM HANGZHOU 2025 现场,《Open AGI Forum》栏目邀请到记忆张量 CTO 李志宇,与 优快云 &《新程序员》执行总编唐小引展开一场关于“AI 记忆增强”的深度对话。视频全长一次性放出,信息量巨大,建议收藏后慢慢消化。
🎬 对话到底聊了什么?
-
记忆分层架构从 0 到 1 的探索历程;
-
为什么把“记忆”视为大模型性能瓶颈的突破口;
-
记忆增强不是锦上添花,而是大模型性能瓶颈的「Plan B」;
-
MemOS 开源框架三层记忆设计:参数记忆、激活记忆、明文记忆;
-
落地效果:RAG 需要 4~5 秒的检索延迟,MemOS 利用“用户输入的 5 秒空档”把记忆提前备好,端到端缩短 80% 等待时间;
-
多模态记忆原生大模型 + AI 硬件,明年或推“全天私人秘书”;
-
开源 3000+ Star 背后:社区反馈、轻量化 Neo 版、SaaS API 路线;
-
从 Prompt 工程 → 上下文工程 → 记忆工程,通往 AGI 之路需要哪两大条件?
无论你是开发者、创业者,还是关注大模型落地的从业者,这期节目都将为你揭开“记忆增强”这一赛道的技术细节、商业化思路与未来趋势。欢迎关注,锁定 GOSIM 更多开源与 AI 干货分享!
彩蛋
-
12 月即将 release「text-to-memory」基础模型,一行命令把任意长自然语言表达转成“记忆操作序列”。
-
MemOS-SaaS 已开放内测,add/search 两个接口就能完成记忆闭环,全免费高性能,欢迎申请~

被折叠的 条评论
为什么被折叠?



