给 coding agents 的“使用说明书”(译)

原文标题:Onboarding for coding agents
原文链接:https://www.fuzzycomputer.com/posts/onboarding

最近我一直在折腾各种 AI 编程小助手:Claude Code、Cursor、Codex、Jules …… 真香归真香,但它们都一个臭脾气—— 你给多少上下文,它们就做多大事,而且每个家伙要的格式还不一样。

Cursor 要 .cursor/rules,Claude Code 找 CLAUDE.md,Codex 和 Jules 又想读 AGENTS.md,还有 .windsurfrules.clinerules.github/copilot-instructions.md…… 头都大了。

以前我把几百行提示全塞进 CLAUDE.md,最近我换了个懒人打法:

  1. 1. 所有上下文直接写 README(谁都看得懂)。

  2. 2. 规矩别写嘴里,全扔给 工具(类型检查、linter、formatter、测试)。

结果我的 CLAUDE.md 从几百行缩到 13 行,爽翻。

README 就是宇宙通用说明书

README 这玩意儿都活了 50 年,早就成了开发者默认“入口”。
于是我把各种提示从工具专属文件搬到 README,但又不想搞成一篇大作文,就整了个简单命名套路,按领域拆文件:

  • • README.md —— 项目或模块的大图。

  • • README.<领域>.md —— 某个具体方向的说明书。

比如:

  • • README.architecture.md

    • • 项目怎么搭的

    • • 关键架构决定

    • • 数据怎么在客户端和服务端跑

    • • 加新功能该按啥套路来

  • • README.commands.md —— 常用命令/脚本

  • • README.design.md —— 设计系统、组件、视觉规范

  • • README.testing.md —— 测试套路大全

📚 新员工入职包

这么拆完,上下文既模块化又不重复。
问题是:到底写哪些 README?

我的土办法就是把它当成给新人写的入职包——不管来的是真人同事还是 AI 小助手,都当他们啥都不懂。
你就想:明天组里来了一位新工程师/设计师,你得让他先读啥再动手?
把那堆东西统统写 README 里。

每一次新的 Cursor 或 Claude Code 会话,都相当于一个零背景的新同事空降。
你不先让他补课,他怎么干得漂亮?

于是我现在的 CLAUDE.md 只剩两行 onboarding 指令:

# CLAUDE.md

给 Claude Code 的小抄:

## 📚 入职第一步  
开干前先把下面全看一遍:
1. 所有 `**/README.md`  
2. 所有 `**/README.*.md`

** 会把子目录里的 README 也一起捞进来。
上下文都在 README 里,以后换啥工具都能直接复用。

✅ 质量闸门

入职包给了 AI 背景,那怎么保证它不写烂代码?

以前我把各种“规矩”贴在 .cursorrules 或 CLAUDE.md,现在懒得写,直接把规矩写进环境——
让工具当坏人,AI 当苦力,跑不过就别想交卷。

我叫它“质量闸门”:就是你能放心让新人 push 到生产前的那套检查。

最近一个 NextJS/TS 项目的例子:

## ✅ 质量闸门

Claude 写完代码必须跑完下面全部,一个不过就修,修完再跑,循环到全绿:

1. `pnpm type-check`  
2. `pnpm format`  
3. `pnpm lint`  
4. 单测全过 (`pnpm test:run`)

大模型对空格、import 排序、Tailwind 类顺序这些细节很容易翻车,
但它们擅长跑命令看报错再修,循环几次就全绿了。

具体用啥工具看你技术栈:TS 用 ESLint/Prettier,Python 用 ruff/pytest,Go 用 go fmt/vet/test……
总之把规矩往死里严就对了。

有了这两节(📚 入职包 + ✅ 质量闸门),我的 CLAUDE.md 现在真就 13 行。

软件也学会了 OODA 循环

为啥这套“质量闸门”最近突然这么好用?

一年前还不行,现在新模型(比如 Sonnet 4)+ 新工具(Claude Code)让小助手能一口气迭代好几分钟甚至几小时,直到所有约束全绿。

拔高视角:代码小助手现在能跑自己的 OODA 循环(观察-判断-决策-行动)。
以前只能按指令敲 token,现在能看结果、改代码、再跑检查,跟人类小菜鸟用 IDE 报错修 bug 一个路数。

人类几千年都是自己跑 OODA,现在工具也长了个初级版 OODA。

我心情复杂——
乐观面:老子当 builder 的杠杆感爆棚,复杂任务说甩就甩。
焦虑面:万一哪天工具把我们踢出循环,自己跑去追目标怎么办?

现在这 AI OODA 在软件工程最灵光,但别的领域只要能验证输出,估计也能套“质量闸门”。

你先定好“物理定律”

“氛围编程”(vibe coding)——你只喊需求,AI 全包办——确实爽又快。
但没规矩的话,分分钟给你整成屎山。

所以我给自己立了条铁律:绝不把“环境”交给 AI 氛围定。

我先定好“物理定律”:技术栈、组件、库、数据库、部署、设计系统……
这些改起来贵得离谱,还决定了项目的大部分约束。
定完后,让 AI 在笼子里随便飞。

真要加新库?我会让 Claude 给选项和利弊,但决定权在我,必须自己翻完文档再拍板。
一个烂依赖能毁项目,好抽象才让人爽到飞起。

严丝合缝的“物理定律”让我对 AI 产出更有底,Code Review 也轻松。
速度其实更快,因为我再也不用去 review 一堆半成品,等闸门全绿一次过。

推荐阅读

【四轴飞行器】非线性三自由度四轴飞行器模拟器研究(Matlab代码实现)内容概要:本文围绕非线性三自由度四轴飞行器模拟器的研究展开,重点介绍基于Matlab代码实现的四轴飞行器动力学建模与仿真方法。研究构建了考虑非线性特性的飞行器数学模型,涵盖姿态动力学与运动学方程,实现了三自由度(滚转、俯仰、偏航)的精确模拟。文中详细阐述了系统建模过程、控制算法设计思路及仿真结果分析,帮助读者深入理解四轴飞行器的飞行动力学特性与控制机制;同时,该模拟器可用于算法验证、控制器设计与教学实验。; 适合人群:具备一定自动控制理论基础和Matlab编程能力的高校学生、科研人员及无人机相关领域的工程技术人员,尤其适合从事飞行器建模、控制算法开发的研究生和初级研究人员。; 使用场景及目标:①用于四轴飞行器非线性动力学特性的学习与仿真验证;②作为控制器(如PID、LQR、MPC等)设计与测试的仿真平台;③支持无人机控制系统教学与科研项目开发,提升对姿态控制与系统仿真的理解。; 阅读建议:建议读者结合Matlab代码逐模块分析,重点关注动力学方程的推导与实现方式,动手运行并调试仿真程序,以加深对飞行器姿态控制过程的理解。同时可扩展为六自由度模型或加入外部干扰以增强仿真真实性。
基于分布式模型预测控制DMPC的多智能体点对点过渡轨迹生成研究(Matlab代码实现)内容概要:本文围绕“基于分布式模型预测控制(DMPC)的多智能体点对点过渡轨迹生成研究”展开,重点介绍如何利用DMPC方法实现多智能体系统在复杂环境下的协同轨迹规划与控制。文中结合Matlab代码实现,详细阐述了DMPC的基本原理、数学建模过程以及在多智能体系统中的具体应用,涵盖点对点转移、避障处理、状态约束与通信拓扑等关键技术环节。研究强调算法的分布式特性,提升系统的可扩展性与鲁棒性,适用于多无人机、无人车编队等场景。同时,文档列举了大量相关科研方向与代码资源,展示了DMPC在路径规划、协同控制、电力系统、信号处理等多领域的广泛应用。; 适合人群:具备一定自动化、控制理论或机器人学基础的研究生、科研人员及从事智能系统开发的工程技术人员;熟悉Matlab/Simulink仿真环境,对多智能体协同控制、优化算法有一定兴趣或研究需求的人员。; 使用场景及目标:①用于多智能体系统的轨迹生成与协同控制研究,如无人机集群、无人驾驶车队等;②作为DMPC算法学习与仿真实践的参考资料,帮助理解分布式优化与模型预测控制的结合机制;③支撑科研论文复现、毕业设计或项目开发中的算法验证与性能对比。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注DMPC的优化建模、约束处理与信息交互机制;按文档结构逐步学习,同时参考文中提及的路径规划、协同控制等相关案例,加深对分布式控制系统的整体理解。
### ML-Agents Version 17 Documentation and Tutorials The Unity Machine Learning Agents Toolkit (ML-Agents) is designed to enable games and simulations as environments for training intelligent agents using reinforcement learning techniques. While specific references to version 17 were not provided directly in your citations, general information about the toolkit's capabilities across versions remains consistent. For **version-specific documentation**, users typically refer to official repositories such as GitHub pages dedicated to each release cycle[^5]. These resources include detailed guides on setting up projects, configuring environments, selecting models like those mentioned in earlier contexts involving OpenAI or other providers[^1], and integrating them into game engines through scripts similar to Python-based configurations seen elsewhere[^3]. Regarding tutorials tailored specifically towards understanding how policies are updated during iterations when employing one-step methods within certain frameworks—which might loosely relate concepts discussed under another context regarding neural networks being adjusted based upon experiences gathered—these would involve practical coding examples demonstrating hyperparameter tuning processes alongside theoretical explanations concerning algorithmic approaches used therein[^4]. Additionally, since updates may occur frequently between different releases including potential improvements made available post-initial publication dates associated hereunder; therefore staying informed by regularly checking latest announcements could prove beneficial too! ```python # Example Code Snippet Illustrating Basic Setup With Placeholder Values For Demonstration Purposes Only. from unityagents import UnityEnvironment env = UnityEnvironment(file_name="path_to_your_environment") brain_name = env.brain_names[0] brain = env.brains[brain_name] # Reset environment at start of episode/training session etc... env_info = env.reset(train_mode=True)[brain_name] print('Number Of Agents:', len(env_info.agents)) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值