大模型公司挖墙脚哪家强,Anthropic才是最大赢家?
不仅顶尖AI人才的留*存率达到80*%,而且工程师从OpenAI跳槽到Anthropic的可能性是从Anthropic转投OpenAI的8倍。
不止OpenAI,大型科技公司也是Anthropic主要的人才猎场。
谷歌、Meta、微软、亚马逊和Stripe,不少资深研究员和工程师都被Anthropic挖走了。
这一数据来自风险投资公司SignalFire最新发布的2025人才趋势报告。
其智能引擎Beacon AI平台追踪着超6.5亿专业人士和8000万家组织。
网友看完数据后感叹:
Anthropic吸引AI人才就像猫薄荷吸引猫咪一样。
所以,Anthropic到底有什么秘诀啊?
报告详情
Anthropic留存率一马当先
首先来看顶尖AI实验室2021-2023年期间所有新招聘员工的留存率*(2023年2月之后招聘的员工不在统计范围内)*。
留存率指的是两年前入职某公司的员工在第二年年末仍留在公司的占比。
在人才高流动率著称的AI行业中,Anthropic 80%的高留存率尤为亮眼。紧随其后的是DeepMind,留存率78%。
而OpenAI“留”就没那么高了67%,“流”高,和FAANG公司相当*(留存率为 64%)*。
值得一提的是,DeepSeek、xAI/Grok等较新的AI实验室,未在研究的整个时间段*(2023-2024 年)内持续运营,**不在分析范围*内**。
同时,分析对象聚焦于在LinkedIn上拥有独立公司档案的机构,确保员工数据清晰准确。Meta AI未被纳入,因其在LinkedIn上未作为独立于Meta集团的实体列出。
这次报告分析的所有员工留存数据也均来自LinkedIn上公开的用户自主填报信息,可能存在不准确或雇佣时间范围不完整的情况。
Anthropic三大秘诀留住人才
那么,Anthropic为何留存率这么高?
根据SignalFire进一步的分析,Anthropic有三大秘诀。
首先,Anthropic总是精准挖墙脚,且瞄准两大主要竞争对手:OpenAI和DeepMind。
下面是顶尖AI实验室间的人才流动情况。
工程师从OpenAI跳槽到Anthropic的可能性,是反向跳槽的8倍。而从DeepMind来看,人才流向Anthropic和反向流动的比例接近11:1。
其次,不同于很多企业依赖于高额薪酬和品牌影响力吸引人才,Anthropic具有独特的企业文化——
包容非传统思维者,给予员工推动成果的充分自主权;提供灵活的工作选择;没有因头衔带来的等级观念或强制管理晋升路径。
有Anthropic员工反馈,Anthropic推崇知识交流和研究人员自主,对那些在其他官僚作风企业受束缚的AI人才而言,极具吸引力。
另外,从一些非正式衡量标准来看,Claude正迅速成为开发者的心头好,部分工程师会因为喜欢Claude而影响职业选择。工程师通常倾向于加入自己欣赏且使用其产品的公司,这种产品共鸣感让Anthropic在招聘中更具优势。
科技巨头人才流向新AI实验室
除了势均力敌的竞争对手之间存在人才争夺战,大型科技公司*(指市值排名前15的科技企业)*也成为一些新兴AI实验室的人才猎场。
谷歌、Meta、微软、亚马逊主要目标,从这些公司跳槽到新兴AI实验室的员工占比分别为5.4%、4.3%、3.2%、2.7%。
SignalFire透露,Anthropic在从这些公司挖走资深研究员和工程师方面,成效尤为显著。
人才涌动,新势力组团开黑
随着AI领域技术一路狂飙深入发展,人才争夺肉眼可见进入白热化。
比如目前AI赛道明星**Anthropic,**本身就是一群前OpenAI员工联合组建的:
2016年,Dario Amodei还是OpenAI的安全主管,主导着GPT-3的全面安全评估;2021年,他就离开OpenAI创立了Anthropic。
Jan Leike,曾任OpenAI超级对齐团队联合负责人,如今他联合领导Anthropic的对齐团队。
还有OpenAI联合创始人John Schulman,去年也辞职加入Anthropic*(之后又跳槽OpenAI前CTO Mira Murati的新初创公司)*。
OpenAI联合创始人Durk Kingma,现在同样是Anthropic的人了。
除此之外,还有一些新星正在蓄势待发。
比如OpenAI前CTO Mira Murati在离职OpenAI后创办了新公司——Thinking Machines Lab,前段时间被曝正在筹集新融资,光种子轮就达到了20亿美元。
消息称一旦融资完成,其估值将达到超100亿美元。
没错,这是一家成立不到一年,距离正式官宣不过四个月,还没有任何产品的AI初创公****司。
Thinking Machines Lab更是上演了一波AI圈“拼好人才”,目前已知的团队阵容包括*(超长名单预警)*:
- Barret Zoph:OpenAI前研究(后训练)副总裁,任Thinking Machine Lab CTO
- John Schulman:OpenAI离职联创,任公司首席科学家
- Alec Radford :初代GPT到GPT-4o的论文中全都有他的名字的“天才少年”(前两代还是第一作者)
- Bob McGrew:OpenAI前首席研究员
- Lilian Weng翁荔:OpenAI前安全副总裁,北大校友。
- YingHai Lu:本博分别毕业于同济复旦,ML系统工程师,曾领导OpenAI和Meta各种推理工作
- Randall Lin:此前曾在OpenAI负责ChatGPT,并在X担任“Twitter算法”的联合技术负责人
- Stephen Chen:基础设施工程师,专注于数据中心、硬件支持和AI基础设施,之前在Google、Meta工作,本科毕业于滑铁卢大学
- Alex Gartrell:曾任Meta服务器操作系统负责人,Linux内核、网络和容器化专家
- Alexander Kirillo****v:OpenAI高级语音模态和Meta分割一切模型(SAM)的共同作者,曾担任OpenAI多模态后训练负责人
- Andrew Tulloch:ML系统研究和工程,此前在OpenAI和Meta工作
- Brydon Eastman:Mistral AI创始团队成员兼多模态研究主管,Mixtral和Pixtral的共同创始人。VLM、RL和机器人技术专家
- Christian Gibson:曾任OpenAI基础设施工程师,专注于训练前沿模型的超级计算机
- Devendra Chaplot:曾领导OpenAI的可靠扩展团队和GPT-4o优化,再之前曾在Google Brain从事统计物理学与机器学习的交叉研究
- Ian O’Connell:基础设施工程,曾就职于OpenAI、Netflix、Stripe
- Jacob Menick:ML研究员,领导OpenAI的GPT-4o-mini,之前曾为DeepMind的ChatGPT和深度生成模型的创建做出过贡献
- Jonathan Lachman:运营主管,前OpenAI特别项目负责人
- Joshua Gross:在OpenAI构建产品和研究基础设施,塑造ChatGPT的学习系统和GPU集群;之前在Meta负责产品基础设施
- Kurt Shuster:Google DeepMind的推理、Character.AI的全栈预训练和推理以及MetaAI的基础对话研究
- Kyle Luther:机器学习研究员,曾在OpenAI就职
- Luke Metz:研究科学家和工程师,曾在OpenAI和Google Brain任职,ChatGPT共同作者
- Mario Saltarelli:OpenAI前IT和安全主管
- Myle Ott:人工智能研究员,Character.AI创始团队,Meta早期法学硕士负责人,FSDP和fairseq的创建者
- Nikki Sommer:曾任OpenAI人力资源业务副总裁以及Twitter人力资源业务总监
- Noah Shpak:ML工程师,喜欢让数据发出轰隆声,让GPU发出嘶嘶声
- Pia Santos:执行运营主管,曾在OpenAI任职
- Rowan Zellers:曾在OpenAI工作,从事实时多模式后训练工作
- Sam Schoenholz:领导OpenAI的可靠扩展团队和GPT-4o优化。之前曾在Google Brain从事统计物理学与机器学习的交叉研究
- Sam Shleifer:专注于推理的研究工程师,曾在Character.AI、Google DeepMind、FAIR、HuggingFace工作
- Stephen Roller:之前曾在DeepMind、CharacterAI和MetaAI进行全栈预训练
……
其实不论是Anthropic,还是OpenAI都在快速扩张,Anthropic的职业页面上列出了超200个职位,而OpenAI列出了近330个。
但现在,顶尖人才真的要靠抢。
就像Anthropic创始人Dario Amodei之前接受采访曾说的:
“人才密度”胜过“人才规模”。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。