
Neel Somani 指出,虽然人工智能看似依赖数据和算法驱动,但其真正的核心动力其实是“优化”。在他看来,AI 领域的每一次重大突破——从训练大型语言模型,到部署实时决策系统——本质上都是在大规模解决优化问题。优化不仅是数学工具,更是现代人工智能所使用的“语言”。
作为研究者、技术专家与创业者,Neel Somani 为这一主题带来了独特视角。他毕业于加州大学伯克利分校,拥有数学、计算机科学与商业三重学位;曾就职于 Airbnb 和 Citadel,并于 2022 年创立 Eclipse——基于 Solana 虚拟机的以太坊高速 Layer 2 网络,累计融资 6500 万美元。如今,除区块链领域外,他也是活跃的天使投资人和慈善家,并将重点投入到人工智能前沿项目中。
优化在 AI 中的根源
优化早已存在于各类工程与科学应用中。从减少飞机油耗到提升工厂产能,优化为高效决策提供了关键数学框架。
在人工智能领域,优化的重要性被进一步放大。训练模型的过程,就是调整成千上亿个参数以减少误差、提升性能。广为人知的“梯度下降”算法正是这种思维方式的体现:沿着减少误差的方向逐步调整参数,使模型不断逼近最佳状态。
因此,许多从业者认为训练 AI 并非传统意义上的“教学”或“编程”,而更像是“调参”:通过数学信号引导参数向更佳的方向移动。正如 Neel Somani 所说:“优化不是编写规则,而是在引导参数找到更好的解。”
优化:AI 学习的真正引擎
从本质上讲,AI 的学习就是优化过程。无论是哪种学习方式,系统都在优化某一目标函数。
• 监督学习
通过最小化预测值与真实标签之间的差异来学习。
• 无监督学习
通过优化数据结构,将数据聚类成内部差异更小、或符合概率分布的群组。
• 强化学习
通过优化长期奖励,在探索与利用之间取得最佳平衡。
正是这种“持续优化”的机制推动模型性能不断提升,也解释了为什么现代 AI 如此依赖计算资源——这些系统正在求解极其庞大、复杂的优化问题,需要 GPU、TPU 等专用硬件进行加速。
正如 Neel Somani 所说:“AI 的学习不是魔法——它就是优化。不论模型是在匹配标签、聚类数据,还是追求长期奖励,它永远在既定空间中寻找更优解。”
大语言模型:大规模优化的代表
大型语言模型(如 GPT-5 等)是优化在 AI 中规模化应用的典型案例。训练这样的系统,需要在庞大数据集上调整数千亿个参数,其目标虽看似简单——最小化模型预测的下一个 token 与真实 token 的差异——但实际上要在数万亿次预测中反复执行,涉及海量计算与高难度的资源调度。
模型在准确性、流畅性、推理能力上的提升,全部源自优化策略的进步,如更高效的梯度下降算法、更合理的学习率调度、或能防止过拟合的正则化方法等。
而在训练完成后,优化仍未停止。微调、人类反馈强化学习、提示工程等,都是进一步提升模型实用性、安全性与对齐度的优化方式。
不止训练:部署阶段的优化同样关键
模型训练完成后,优化依然发挥着决定性作用,特别是在真实部署中。
• 推理优化(Inference Optimization)
要实现实时响应,需要优化延迟与吞吐量。工程师常常需要将大型模型压缩、蒸馏成更小、更快的版本,同时保持足够性能。
• 资源优化(Resource Optimization)
AI 公司与云服务商需要优化能耗、内存、并行处理等。运行顶级模型不仅是算法问题,更是基础设施的优化挑战。
• 用户体验优化(User Experience Optimization)
系统会不断根据用户反馈进行学习,提供更准确、更个性化的结果。比如 Netflix、Amazon、Spotify 都依赖持续优化实现更精准的推荐体验。
正如 Neel Somani 所说:“训练阶段更容易获得关注,但部署阶段才真正体现优化的价值。每节省的一毫秒或一瓦能耗,都可能决定一个系统能否成功规模化。
2万+

被折叠的 条评论
为什么被折叠?



