我把Claude变成了带记忆的人生教练,结果它比我还了解我自己|人生教练 Agent v2.1

还记得上周发布的"人生教练"吗?没想到反响这么热烈!

有位创业者朋友跟我说:"这个回答直接戳中痛点啊"

Image

更有意思的是,有个技术大佬直接撸起袖子,做了个MCP来实现本地版的对话功能。看到这个我坐不住了——不能让大家等太久,我得赶紧把官方版的记忆功能做出来!

Image

为什么记忆功能这么重要?

想象一下,如果你的人生教练每次对话都像初次见面,那多尴尬?

"嗨,我是你的人生教练,请问你是谁?"

这不就成了失忆症患者了吗?

有了记忆功能后,人生教练变成了这样:

"上次你提到想转行做AI产品经理,这周的准备进展如何?我记得你说要先学习Python基础..."

这才是真正的教练该有的样子!

图片

实测效果:它真的记住了我

昨天晚上,我测试新版人生教练时,被它的表现惊到了。

我随口问了句:"最近有点迷茫,不知道该专注做 内容 还是继续做 产品+内容"

它竟然翻出了我三个月前的一段记录:

Image

我都忘了自己说过这话,它却记得一清二楚。

更绝的是,它还能把不同时期的想法串联起来:

Image

最佳拍档:Cursor + Claude Code = 最强CP

实现记忆功能的技术栈其实不复杂:

1. Claude Code作为主要的工具:能够使用最强模型,claude opus4,如果没有claude code,用cursor也非常棒

3. 本地Markdown文件存储:所有对话记录都保存为可读的文本文件

3. 飞书多维表格:存储各个智者的人格提示词

4. cursor:作为 claude code 的启动器,解决claude code 不会用的问题

最巧妙的设计是"记忆文件夹"结构:

记忆/├── 自我认知.md     # 你对自己的描述├── 成长历程.md     # 重要的人生节点├── 目标规划.md     # 短期和长期目标└── 对话精华.md     # 有价值的历史对话

这样一来,你的Cursor直接变成了你的人生笔记本!

相比传统方案的优势

传统人生教练 vs AI人生教练

对比维度传统教练AI教练
费用500-2000元/小时完全免费
时间需要预约,通常每周1次24小时随时可用
记忆依赖教练个人记忆和笔记完整记录每次对话
视角单一教练的经验和认知多位智者的综合智慧
隐私可能有隐私顾虑数据完全本地化

关键差异:AI教练不是要取代人类教练,而是让每个人都能拥有一个"思考伙伴"。

升级后的工作流程

新版人生教练的工作流程分为三个阶段:

第一阶段:复制我的运行文件

复制下方提示词

https://o90p05z3t4.feishu.cn/wiki/XgxXw3Pnsi7P4akimoYcY58Wnah

新建一个文件,粘贴提示词,并命名为"人生教练运行文件.md"

图片

第二阶段:新建“记忆”

在本地新建一个文件夹,叫“记忆”

可以在里面新建一些背景资料,参考如下

记忆/

├── 自我认知.md # 你对自己的描述

├── 成长历程.md # 重要的人生节点

├── 目标规划.md # 短期和长期目标

└── 对话精华.md # 有价值的历史对话

图片

第三阶段:保存对话

当对话是你觉得需要保存的,输入“保存”类命令,AI就会识别指令,把对话存入“记忆”文件夹

Image

实际应用场景

场景1:职业发展困惑

你问:"我是继续在大厂卷,还是出来创业?"

系统响应

查理·芒格:先分析你的能力圈和财务安全边际

史蒂夫·乔布斯:探讨你真正的热情所在

系统思考大师:构建决策模型,分析长期影响

场景2:情绪管理问题

你问:"最近总是焦虑,怎么办?"

系统响应

CBT心理学家:识别触发焦虑的认知模式

苏格拉底:通过提问帮你找到焦虑的根源

镜像的你:回顾你之前成功应对焦虑的经验

场景3:产品设计难题

你问:"这个功能到底该不该加?"

系统响应

乔布斯:从用户体验角度做减法

埃隆·马斯克:用第一性原理重新审视需求

问题考古学家:挖掘用户真正想要解决的问题

使用小技巧

1. 定期更新记忆文件

  • 每周花10分钟更新"自我认知.md"
  • 重大决策后记录在"成长历程.md"
  • 建立核心目标在 "目标规划.md"
  • 这样AI教练会越来越了解你

2. 善用追问

  • 不要只问一次就结束
  • 让不同智者产生思想碰撞
  • 追问能激发更深层的洞察

3. 建立专属提示词库

  • 可以在飞书表格中添加你信任的人物
  • 比如你的导师、偶像、甚至是虚构人物
  • 让他们成为你的智囊团

当前的局限性

实事求是地说,现在的AI教练还有一些不足:

1. 缺乏情感共鸣:虽然能理解你说什么,但还不能真正"感受"你的情绪

2. 依赖用户输入:记忆质量取决于你愿意分享多少

但这些都是可以改进的方向,而不是无法突破的天花板。

一个意外发现

在测试过程中,我发现了一个特别有意思的现象:

当我让"镜像的我"(AI版的自己)和真实的我对话时,经常能发现自己的认知盲区。AI版的我会说:

"成峰,从你的历史记录来看,你总是在说要专注,但实际上你享受的是探索的过程。与其纠结专注什么,不如承认自己就是一个'专业的探索者'。"

这种"自己和自己对话"的体验,有点像是在照一面特别诚实的镜子。

下一步计划

基于大家的反馈,接下来会重点做这些:

1. 手搓人物

  • 聊一下自己是怎么去搓人物的

2. 轻量化部署

  • 怎么样降低使用门槛

写在最后

有了记忆功能的人生教练,不再是一个冰冷的AI工具,而更像是一个真正了解你、陪伴你成长的伙伴。

它记得你的每一次困惑,见证你的每一步成长,在你需要的时候,用最合适的智慧为你指路。

更重要的是,通过与它对话,你其实是在与更好的自己对话。

这个项目还很早期,但我相信它的方向是对的——让每个人都能拥有属于自己的智慧伙伴

如果你也想给自己的人生教练加点特殊功能,欢迎在评论区分享。说不定下个版本就会有你的创意!

我是Agent博主成峰(🔍AI产品自由),下期再见 claude code + MCP 的使用方法!

<think>我们正在讨论的是在Claude中配置自动化测试的sub agent(子代理)。根据用户提供的引用,特别是引用[1]和引用[4],我们可以了解Claude的自定义Agent机制以及如何将开发流程分解为多个子代理。用户的问题具体是:如何在Claude中配置自动化测试的sub agent。 引用[1]提到: - 动手创建一个自己的Agent,例如“代码注释生成器”或“Git Commit Message 撰写器”。 - 遵循最佳实践,定义清晰的agent-type、when-to-use,并坚持最小权限原则。 - 思考现有工作流的“Agent化”,比如单元测试用例生成、API文档同步、代码风格检查等。 引用[4]则描述了一个标准的开发流程分解为四个子代理: 1. spec-gen-agent:生成需求和设计文档。 2. code-exec-agent:编写代码。 3. spec-validation-agent:检查代码质量、安全和性能。 4. spec-testing-agent:编写测试用例。 因此,我们可以借鉴引用[4]的思路,将自动化测试流程分解,并创建相应的子代理。特别是,我们可以将自动化测试分解为多个子代理,例如: - 测试用例生成代理(test-case-gen-agent) - 测试执行代理(test-exec-agent) - 测试结果验证代理(test-result-validation-agent) - 测试报告生成代理(test-report-gen-agent) 在Claude中配置这些子代理,需要按照以下步骤进行: 步骤1:定义每个子代理的职责和配置 步骤2:配置每个子代理的触发条件(when-to-use)和权限(最小权限原则) 步骤3:构建多代理系统,并设置代理间的协作机制(引用[2]提到多Agent系统的构建,并提供了调试工具) 步骤4:通过Claude的Web UI进行交互和调试(引用[2]) 具体配置方法如下: 1. **定义子代理的配置(以测试用例生成代理为例)**: 每个子代理都是一个独立的Agent,需要定义其类型(agent-type)、描述(description)、触发条件(when-to-use)以及工具(tools)等。 例如,测试用例生成代理(test-case-gen-agent)的配置可能如下: ```yaml name: test-case-gen-agent description: 根据代码和需求生成测试用例 agent-type: code-analysis when-to-use: 当有新的代码提交或需求变更时,需要生成测试用例 tools: - code_reader - test_case_generator permissions: - read:source_code - write:test_cases ``` 2. **创建子代理**: 在Claude中,可以通过编写配置文件(如YAML)或使用Web UI来创建子代理。引用[2]提到,可以通过Web UI来与Agent交互,并提供调试工具。 例如,在Claude的Web界面中,我们可以: - 进入“Agent创建”页面 - 填写每个子代理的配置信息 - 保存并激活代理 3. **构建多代理系统**: 引用[4]将一个开发流程分解为四个子代理,我们可以类似地将自动化测试流程分解。然后,我们需要设置主代理(master agent)来协调这些子代理。 例如,我们可以创建一个名为“automated-testing-master”的主代理,它负责接收测试任务,然后按照流程调用各个子代理: - 首先调用test-case-gen-agent生成测试用例 - 然后调用test-exec-agent执行测试 - 接着调用test-result-validation-agent验证测试结果 - 最后调用test-report-gen-agent生成测试报告 主代理的配置可能包括: ```yaml name: automated-testing-master description: 自动化测试主控代理 agent-type: orchestrator sub-agents: - test-case-gen-agent - test-exec-agent - test-result-validation-agent - test-report-gen-agent ``` 4. **调试与交互**: 引用[2]提到,启动本地web服务器后,可以通过聊天界面与Agent交互,并使用调试工具查看状态转换、工具调用和完整的执行跟踪。 5. **处理多代理协作中的问题**: 引用[3]提到多Agent协作可能遇到结果冲突,需要主代理统一汇总与去重。因此,在主代理的设计中,需要包含结果整合逻辑。 6. **最佳实践**: 引用[1]和引用[3]都强调了结构化拆解任务和合理利用多线程/多代理并发。因此,我们可以设计让某些子代理并行执行(如多个测试用例可以并行执行)。 示例:自动化测试流程分解 1. **test-case-gen-agent**(测试用例生成代理): - 输入:需求文档、代码 - 输出:测试用例(包括测试步骤、预期结果2. **test-exec-agent**(测试执行代理): - 输入:测试用例 - 输出:测试执行结果(通过/失败,以及日志) 3. **test-result-validation-agent**(测试结果验证代理): - 输入:测试执行结果 - 输出:验证结果(例如:是否所有关键用例通过?是否有性能问题?) 4. **test-report-gen-agent**(测试报告生成代理): - 输入:测试执行结果和验证结果 - 输出:测试报告(包括统计信息、问题列表) 注意事项: - 每个子代理应遵循最小权限原则,只拥有完成其任务所必需的权限。 - 定义清晰的触发条件,避免不必要的调用。 总结步骤: 1. 根据自动化测试流程,设计子代理及其职责。 2.Claude中为每个子代理创建配置文件或通过Web UI创建。 3. 创建主代理来协调子代理的执行顺序和数据处理。 4. 通过Web UI进行测试和调试,确保每个子代理按预期工作,并且整个流程顺畅。 最后,引用[1]建议通过实践来体会,因此建议用户从一个简单的子代理开始,逐步构建完整的自动化测试代理系统。 根据以上分析,我们给出具体配置步骤: 步骤1:设计子代理 步骤2:配置子代理(使用YAML或Web UI) 步骤3:配置主代理 步骤4:启动Claude的本地Web服务器(引用[2]) 步骤5:通过聊天界面或API触发主代理,并监控执行过程 这样,用户就可以在Claude中配置自动化测试的sub agent了。 根据引用内容,我们生成了以下相关问题:</think>### 如何在Claude中配置自动化测试的Sub Agent 根据您提供的引用内容,在Claude中配置自动化测试的子代理(Sub Agent)需要遵循其模块化设计理念。以下是具体配置步骤和最佳实践: --- #### 1. **定义Sub Agent的职责和触发条件**(基于引用[1][^1]) - **明确agent-type**:为自动化测试子代理定义清晰类型(如`test-case-generator`或`test-executor`) - **设定when-to-use条件**:指定触发场景(如代码提交时/PR审核阶段) - **权限最小化原则**:仅开放必要的API访问权限 示例配置模板: ```yaml name: test-executor-agent type: automated-testing description: 执行端到端测试并生成报告 when-to-use: - event: push branch: main - event: pull_request permissions: - read: source_code - execute: test_runner - write: test_reports ``` --- #### 2. **构建多Sub Agent协作系统**(基于引用[2][^3][^4]) 1. **设计Agent工作流**: ```mermaid graph LR A[主代理] --> B[test-case-gen] A --> C[test-exec-agent] A --> D[spec-validation] C --> E[test-report-gen] ``` 2. **关键Sub Agent配置**: - **test-case-gen**:测试用例生成代理 ```yaml tools: - code_analyzer - test_template output: test_cases.json ``` - **test-exec-agent**:测试执行代理(核心) ```yaml dependencies: - test_env - browser_driver timeout: 300s retry_policy: 2 ``` - **spec-validation**:结果验证代理(引用[4][^4]) ```yaml metrics: - coverage: >80% - failure_rate: <5% ``` --- #### 3. **配置执行环境**(基于引用[2][^2]) 1. 启动本地调试服务: ```bash claude agent-server start --agents-path ./automation_agents ``` 2. 通过Web UI监控执行过程: - 实时查看状态转换 - 调试工具调用链路 - 分析执行跟踪日志 --- #### 4. **最佳实践**(综合引用[1][^1][^3][^4]) 1. **结构化任务拆解**: - 将测试流程分解为:用例生成 → 环境准备 → 测试执行 → 结果验证 → 报告生成 2. **并发控制**: ```python # 主代理协调示例 await asyncio.gather( test_case_gen.execute(), test_env.setup(), spec_validator.monitor() ) ``` 3. **冲突解决机制**: - 主代理实现结果去重逻辑 - 设置验证代理的仲裁权重 - 使用结构化输出模板统一格式 4. **工具链集成**: ```yaml # test-exec-agent 工具配置 tools: - name: playwright type: browser_automation - name: postman type: api_testing - name: appium type: mobile_testing ``` --- #### 5. **调试与验证** 1. 常见问题排查(引用[3][^3]): - **Agent结果冲突**:检查主代理的汇总逻辑 - **执行超时**:调整`timeout`参数或优化工具调用 - **环境不一致**:使用容器化测试环境 2. 验证步骤: ```bash claude agent test test-exec-agent --input sample_code.py # 查看输出:test-report.html 和 validation_score.json ``` --- ### 配置示例:自动化测试Sub Agent系统 ```mermaid flowchart TB Master[主代理] --> |触发| Gen[test-case-gen] Master --> |并行| Env[env-setup-agent] Gen --> |测试用例| Exec[test-exec-agent] Env --> |测试环境| Exec Exec --> |原始结果| Validator[spec-validation] Validator --> |验证报告| Reporter[test-report-gen] ``` 通过以上配置,您可以在Claude中构建完整的自动化测试代理系统,实现从测试生成到报告提交的全流程自动化[^1][^2][^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值