
大家好,我是Tony Bai。
在前两讲,我们已经掌握了与 LLM OS 交互的两种核心“姿势”:非流式的“批处理”式对话,以及流式的“实时交互”式对话。我们学会了如何用 Go 语言,像一位娴熟的通信兵,精确地发送请求电报并解码对方的回电。
然而,到目前为止,我们所有的“通信”都还停留在单轮对话的层面。每一次 API 调用,都是一次独立的、全新的交互。LLM 就像一个记忆只有七秒的金鱼,你上一秒告诉它你是谁,下一秒再问它,它会一脸茫然地回答:“你好,陌生人!”
这种“失忆”的状态,极大地限制了 AI 应用的实用性。一个真正有用的 AI 助手,必须能够记住上下文,理解对话的来龙去脉,进行有逻辑、有深度的连续交流。
本讲,我们将直面这个核心挑战,深入探讨如何赋予 AI “记忆”。我们将:
重温本质: 再次剖析 LLM 交互的“无状态性”为何是我们需要解决的根本问题。
掌握策略: 学习在客户端应用中管理和维护对话上下文的核心方法。
Go 实战: 亲手编写一个 Go 程序,通过精心维护
messages列表,实现一个能进行流畅多轮对话的 AI 助手。展望未来: 探讨在超长对话中,管理上下文所面临的挑战与进阶策略。
掌握了上下文管理,你就掌握了从构建“一次性工具”到创造“持久性伙伴”的关键跃迁。

被折叠的 条评论
为什么被折叠?



