拥抱Agentic Coding:软件开发的未来

请点击上方蓝字TonyBai订阅公众号!

大家好,我是Tony Bai。

软件开发的范式正在经历一场深刻的变革。从 GitHub Copilot 的惊艳亮相,到各种IDE中集成的代码生成功能,我们已经习惯了 AI 在编码过程中的“自动补全”。但这仅仅是序幕。如今,一种更强大、更具颠覆性的模式正在兴起,它就是——Agentic Coding (智能体驱动编码)。

最近,Flask 和 Jinja2 等知名开源项目的作者 Armin Ronacher 分享了他近几个月沉浸式体验 Agentic Coding 的感受。他认为,这开启了人机协作编程的新篇章,带来了前所未有的生产力飞跃。

Agentic Coding 不再是简单的代码提示,而是开发者与 AI Agent 之间的实时协作 (real time collaboration)。它预示着软件开发的未来,一个我们都应该主动了解和拥抱的未来。

超越“自动补全”:Agentic Coding 是什么?

要理解 Agentic Coding 的变革性,首先要明白它与我们熟悉的“自动补全”工具的本质区别。如果说 Copilot 是你的“智能导航仪”,那么编码 Agent 就是你的“编程搭档”。它能够:

  • 理解和分解复杂任务: 将一个宏大的目标(如“为这个项目添加用户认证功能”)分解为一系列可执行的子任务。

  • 自主使用工具链: 像人类开发者一样,运行编译器 (go build)、测试框架 (go test)、linter、formatter 等。

  • 与开发环境深度交互: 直接创建、修改、删除文件;与 Git 进行交互;浏览文件系统。

  • 基于反馈进行迭代: 当编译失败或测试不通过时,Agent 会阅读错误信息,理解问题所在,并尝试进行修复,形成一个“试错-反馈-修正”的闭环。

  • 长时间、持续地工作: 甚至可以运行数小时来完成大型任务。

Agentic Coding 的核心,是将 LLM 的推理能力与实际的开发工具链和环境深度结合,使其从一个“代码片段生成器”进化为一个能够自主执行复杂编程任务的“智能体”。

浪潮已至:Agentic Coding 为何在当下爆发?

Armin 认为,这场浪潮的兴起主要源于三个因素的共同作用:

  1. 模型能力的突破: OpenAI o3 、Claude 4 Opus、Gemini 2.5 pro等最新一代模型,在“工具使用 (tool usage)”能力上取得了质的飞跃。

  2. 官方 Agent 的引领: Anthropic 的 claude-code 等官方 Agent 实现,为社区提供了最佳实践的范本。

  3. 更优的成本效益: 通过订阅服务使用 Agentic Coding,使得长时间、高强度的 Agent 运行在经济上变得可行。

如何高效拥抱 Agentic Coding:来自一线的实践指南

要驾驭好这位强大的“编程搭档”,并非易事。Armin 分享了大量宝贵的实践经验,总结起来,核心在于:构建一个“Agent 友好”的环境,并学会如何有效管理上下文。

语言和代码库的选择:“简单”是 Agent 的朋友

  • 简单的语言更受欢迎

Armin 发现,像 Go、PHP、基础 Python 这样的语言,对 Agent 更友好。它们的语法结构清晰,概念相对较少,使得 AI 更容易理解和生成代码。Go 语言的简洁性、强大的标准库和较少的生态系统变动,使其成为 Agentic Coding 的理想选择之一。

  • 生态系统稳定性很重要

生态系统变动越少的语言或框架,效果越好。

  • 代码库内部模式要统一

如果一个代码库中存在多种相互冲突的设计模式,Agent 会感到困惑。

  • 命名要清晰

长且独特的函数名能帮助 Agent 更好地理解和定位代码,避免不必要的代码重复。

优化你的开发环境:为 Agent “铺路”

  • 构建“Agent友好”的工具

你的工具在被误用时,应该明确报错并提供有用的错误信息,而不是静默失败。Armin 举例说,Rust 的测试框架在未选中任何测试时会报告“成功运行0个测试”,这就是一个反例。

  • 统一的、纯文本的日志系统

Agent 需要的是简单、清晰的文本日志来理解系统状态。将浏览器控制台日志、SQL 日志等统一输出到 Agent 可以访问的日志文件中,能极大地帮助它进行端到端的调试。

  • 为 Agent 提供“草稿空间”

在项目中明确告知 Agent 在哪里可以安全地创建和运行一次性的测试或探索性代码。

上下文管理是关键:避免“信息过载”与“迷失方向”

  • 审慎使用 MCP,拥抱命令行工具

作者发现,当前模型对命令行工具的理解和使用能力,远胜于对 MCP 的。Agent 可以轻松地将多个 CLI 工具组合进 Shell 脚本来完成复杂任务。

  • 主动提供摘要,避免 Agent “闲逛”

为 Agent 提供关键 API 或代码模块的摘要,或者构建一个工具来生成摘要,能极大地节省上下文并提高效率。

  • 避免在“混乱”的环境中启动 Agent

如果你的开发环境本身是坏的,Agent 会花费大量上下文去修复环境,而不是解决你真正想解决的问题。

  • 使用子任务分解复杂问题

将大任务分解为清晰的子任务,是管理复杂性和上下文的有效手段。

拥抱前需理解的关键点:从挑战看发展方向

面对 Agentic Coding 的强大能力,一些开发者可能会有疑虑。我们不必将其视为障碍,而应看作是推动技术向更成熟阶段发展的方向。

  • 关于代码质量: Agentic Coding 对开发者的审查能力和架构判断力提出了更高的要求。我们的角色将更多地从“代码生产者”转变为“代码质量的最终负责人和架构师”。我们始终对合并到 main 分支的代码负责。

  • 关于“幻觉”问题: 通过工具链(编译、测试、lint)形成的闭环反馈,Agentic Coding 正在有效地缓解“幻觉”问题。这也指明了未来 Agent 开发平台需要重点投入的方向——构建更健壮的验证和反馈机制。

  • 关于不擅长特定语言: Agentic Coding 的发展将推动语言和生态系统向更“Agent 友好”的方向演进。正如 Armin 所说,Go 语言因其恰到好处的类型安全、广泛的标准库和推崇惯用法的文化,在这方面已展现出天然优势。

  • 关于安全风险(YOLO 模式): 当前重度用户为了最大化 Agent 能力而给予其完全系统权限的“YOLO 模式”,是一种早期探索阶段的高风险行为。未来,成熟的 Agentic Coding 平台必然会提供更安全、更可靠的权限管理和沙箱环境,这是该领域走向普及的必经之路。

注:YOLO 是 “You Only Live Once” (你只活一次) 的缩写。这个词最初流行于社交网络,表达的是一种活在当下、大胆尝试、不畏惧风险的人生态度。在技术领域,特别是 Armin Ronacher 在谈论 Agentic Coding 时使用的语境下,“YOLO 模式”特指一种大胆甚至有些“鲁莽”的使用方式,即给予 AI Agent 极高的、几乎不受限制的系统访问权限。

Go 语言在 Agentic Coding 时代的独特机遇

在 Armin 的分享中,Go 语言被特别提及,并被认为是 Agentic Coding 的理想选择之一。这并非偶然,Go 的诸多特性使其在这场人机协作的新范式中占据了有利位置:

  1. 简洁性与可预测性: Go 语言“简单为王”的设计哲学,使其语法结构清晰、概念少、没有复杂的隐式行为。这使得 AI Agent 能更容易地理解、分析和生成高质量的 Go 代码。

  2. 强大的工具链与高效的反馈闭环: Go 的快速编译、内置测试、静态检查等工具,为 Agent 提供了极其高效的“试错-反馈-修正”闭环。Armin 提到的 Go Test Caching 功能,能让 Agent 更智能地只运行受影响的测试,这是一个绝佳的例子。

  3. 并发与系统编程能力: Go 语言本身非常适合编写 Agent 所需的各种命令行工具、后端服务、以及处理并发任务的 CI/CD 流程。我们可以用 Go 来为 AI Agent 构建高效、可靠的“武器库”。

  4. 清晰的错误处理: Go 显式的 error 返回值机制,相比于异常,为 Agent 提供了更清晰、更可预测的错误处理路径。

小结:拥抱 Agentic Coding,就是拥抱软件开发的未来

Agentic Coding 正在开启一个软件开发的新篇章。它标志着我们与 AI 的关系,从简单的“主仆”(人命令,AI补全),演进为更深度的“伙伴”(人规划,AI协作执行)。

这场变革要求我们主动进化。开发者需要将重心更多地从繁琐的代码实现,转移到复杂问题的分解、系统架构的设计、以及对 AI Agent 的精准引导和结果验证上。

对于我们 Gopher 而言,这是一个激动人心的机遇。Go 语言的设计哲学和工程特性,使其在这场变革中具有天然的优势。与其对新范式感到疑虑或观望,不如主动去学习、实践,探索如何驾驭这位强大的“编程搭档”,让它成为我们提升自身能力、加速项目交付、并最终能专注于更有创造性工作的强大助力。

技术的浪潮滚滚向前,拥抱 Agentic Coding,就是拥抱软件开发的未来。

资料链接:https://www.youtube.com/watch?v=nfOVgz_omlU

如果本文对你有所帮助,请帮忙点赞、推荐和转发

点击下面标题,阅读更多干货!

-  NVIDIA的颠覆性观点:AI Agent的未来,属于小模型(SLM)

AI编码工具“真香”还是“智商税”?一位资深码农的“挑衅”与Go开发者的反思

代码Agent没有护城河?我用Go标准库和DeepSeek证明给你看!

告别智能体孤岛:谷歌A2A协议能否成为企业AI协作的通用语?

构建高效的AI智能体[译]

读懂Go的设计哲学:为什么说它是“恰到好处”的80/20语言?

Go考古:创始人亲述Go语言的“创世纪”


🔥 你的Go技能,是否也卡在了“熟练”到“精通”的瓶颈期?

  • 想写出更地道、更健壮的Go代码,却总在细节上踩坑?

  • 渴望提升软件设计能力,驾驭复杂Go项目却缺乏章法?

  • 想打造生产级的Go服务,却在工程化实践中屡屡受挫?

继《Go语言第一课》后,我的 《Go语言进阶课》 终于在极客时间与大家见面了!

我的全新极客时间专栏 《Tony Bai·Go语言进阶课》 就是为这样的你量身打造!30+讲硬核内容,带你夯实语法认知,提升设计思维,锻造工程实践能力,更有实战项目串讲。

目标只有一个:助你完成从“Go熟练工”到“Go专家”的蜕变! 现在就加入,让你的Go技能再上一个新台阶!

内容概要:本书《Deep Reinforcement Learning with Guaranteed Performance》探讨了基于李雅普诺夫方法的深度强化学习及其在非线性系统最优控制中的应用。书中提出了一种近似最优自适应控制方法,结合泰勒展开、神经网络、估计器设计及滑模控制思想,解决了不同场景下的跟踪控制问题。该方法不仅保证了性能指标的渐近收敛,还确保了跟踪误差的渐近收敛至零。此外,书中还涉及了执行器饱和、冗余解析等问题,并提出了新的冗余解析方法,验证了所提方法的有效性和优越性。 适合人群:研究生及以上学历的研究人员,特别是从事自适应/最优控制、机器人学和动态神经网络领域的学术界和工业界研究人员。 使用场景及目标:①研究非线性系统的最优控制问题,特别是在存在输入约束和系统动力学的情况下;②解决带有参数不确定性的线性和非线性系统的跟踪控制问题;③探索基于李雅普诺夫方法的深度强化学习在非线性系统控制中的应用;④设计和验证针对冗余机械臂的新型冗余解析方法。 其他说明:本书分为七章,每章内容相对独立,便于读者理解。书中不仅提供了理论分析,还通过实际应用(如欠驱动船舶、冗余机械臂)验证了所提方法的有效性。此外,作者鼓励读者通过仿真和实验进一步验证书中提出的理论和技术。
### 关于AI代理编码的教程和最佳实践 #### 定义与概述 AI代理(Agent)是指能够在特定环境中执行任务并作出决策的人工智能实体。这些代理可以通过感知环境状态来调整行为,以实现预定目标。对于开发人员而言,构建高效的AI代理涉及多方面的考量和技术栈的选择。 #### 开发工具支持 为了简化AI代理的创建过程,一些先进的IDE插件和服务提供了强大的辅助功能。例如,Cursor作为一个AI编程助手,不仅帮助开发者自动生成代码、优化项目结构,还提供了一系列编程相关的智能建议。通过学习和理解用户的编程习惯,Cursor能给出个性化的代码生成和优化方案[^1]。这使得即使是复杂的AI代理逻辑也能更高效地编写出来。 #### 编程框架介绍 Ray是一个广泛使用的分布式计算框架,特别适合用来部署大规模机器学习模型以及设计高性能的AI代理系统。安装Ray非常简单: ```bash pip install ray ``` 一旦完成安装,就可以利用其内置的功能来进行异步任务处理、资源调度等工作流管理操作[^3]。 #### 实践案例分析 考虑到实际应用场景的重要性,《Engineering Applications of Artificial Intelligence》期刊中的文章展示了如何运用各种AI技术解决传统上难以克服的问题。这类研究强调了理论联系实际的价值所在,在不同类型的工程项目里实现了创新性的解决方案[^2]。 #### 代码示例:简单的强化学习代理 下面展示了一段基于Python编写的简易版Q-learning算法实现,这是一种经典的强化学习方法,常用于训练AI代理做出最优行动选择。 ```python import numpy as np class QLearningAgent: def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9): self.actions = actions self.lr = learning_rate self.gamma = reward_decay self.epsilon = e_greedy self.q_table = {} def choose_action(self, observation): state_str = str(observation) if np.random.uniform() < self.epsilon: action = max((value[state], act) for act, value in self.q_table.get(state_str, {}).items())[1] else: action = np.random.choice(self.actions) return action def learn(self, s, a, r, s_): q_predict = self.q_table.setdefault(str(s), {}).setdefault(a, 0) if str(s_) not in self.q_table.keys(): self.q_table[str(s)][a] = q_predict + self.lr * (r - q_predict) else: q_target = r + self.gamma * max(self.q_table[str(s_)].values()) self.q_table[str(s)][a] = q_predict + self.lr * (q_target - q_predict) if __name__ == "__main__": env = ... # 初始化环境对象 agent = QLearningAgent(actions=list(range(env.n_actions))) for episode in range(100): observation = env.reset() while True: action = agent.choose_action(observation) observation_, reward, done = env.step(action) agent.learn(str(observation), action, reward, str(observation_)) observation = observation_ if done: break print('game over') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值