刚刚,OpenAI苏黎世办公室被Meta一锅端,三名ViT作者被挖走

Meta挖走OpenAI苏黎世办公室三名ViT作者

刚刚,华尔街日报发布了一份独家报道,称去年底刚刚组建的 OpenAI 苏黎世办公室基本被 Meta 一锅端走了。

图片

具体来说,Meta CEO 马克・扎克伯格挖走了 Lucas Beyer、Alexander Kolesnikov 和 Xiaohua Zhai(翟晓华)三位研究者。

这三人一直以来都是密切的合作伙伴,共同参与了 ViT 等重要研究。去年 12 月,他们离开了谷歌 DeepMind 的苏黎世办公室,加入了 OpenAI 并成立了 OpenAI 的苏黎世办公室。

华尔街日报称:「OpenAI 的一位发言人证实,这三名研究人员已经离职。」

在最新模型发布失败后,扎克伯格一直在大力招募研究者,期望夺回该公司在 AI 领域的优势。也因此,Meta 最近可以说是敞开了钱包疯狂挖人。

据报道,马克・扎克伯格最近每天都在向 AI 领域最顶尖的人才发送电子邮件和 WhatsApp 消息。他亲自联系了数百名研究人员、科学家、基础设施工程师、产品明星和企业家,试图让他们加入他正在组建的超级智能实验室(Superintelligence lab)。当然,他的开价也相当诱人,甚至「向一些人提供了价值 1 亿美元的优厚待遇。」

一些收到消息的人非常惊讶,甚至不敢相信这是扎克伯格发来的。其中一人甚至认为这是个恶作剧,好几天都没有回复。

前段时间,Meta 还向 AI 初创公司 Scale 投资了 140 亿美元,并聘请其 CEO Alexandr Wang 领导其新组建的超级智能团队。

扎克伯格还曾试图招募 OpenAI 联合创始人 Ilya Sutskever(创立了 Safe Superintelligence Inc.)和 John Schulman,但都未能成功。

OpenAI CEO 山姆・奥特曼在周二的一次活动上表示,他并不担心扎克伯格的闪电战:「这就像是,扎克伯格正在做一些新的疯狂的事情。那又怎么样呢?」上周,奥特曼表示,他手下最优秀的人才并没有离开去 Meta。虽然这样说,但 OpenAI 其实也在进行反制,为其研究人员提供更多资金和发展空间。

下面就来简单了解下这篇新闻的三位主角:

Xiaohua Zhai(翟晓华)

image.png

个人主页:https://sites.google.com/view/xzhai

根据领英简历,翟晓华在 2025 年加入 OpenAI。此前,他是 Google DeepMind(苏黎世)的资深研究科学家和管理者。在那里,他领导着苏黎世的一个多模态研究团队,其研究重心是多模态数据、开放权重模型和包容性。

image.png

他于 2014 年在北京大学取得了计算机科学博士学位。之后曾在谷歌从事了三年软件工程师的工作。2017 年 12 月,他加入 DeepMind 担任研究科学家,并一直在此工作了 7 年。离职后,加入 OpenAI。

目前,翟晓华在 Google Scholar 上的被引量已经达到了 8 万多,其中大部分被引量来自他们三人共同参与的 ViT 论文《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》。

image.png

Lucas Beyer

image.png

个人主页:https://lucasb.eyer.be/

他在 2018 年于德国亚琛工业大学完成了自己的高等学业,期间曾在谷歌以实习生身份从事过研究工作,也在 Kindred.ai 担任过 AI 工程师,在德国亚琛工业大学担任过研究助理。

毕业后,他正式加入谷歌,先后在谷歌大脑与 DeepMind 从事研究工作。离开谷歌后,他于 2024 年加入 OpenAI。

image.png

目前,Lucas Beyer 在 Google Scholar 上的被引量已经达到了 8 万多。

image.png

Alexander Kolesnikov

image.png

个人主页:https://kolesnikov.ch/

Alexander Kolesnikov 于 2012 年硕士毕业于莫斯科国立大学,之后在奥地利科学技术研究所取得了机器学习与计算机视觉博士学位。类似地,2018 年博士毕业后,他也先后在谷歌大脑和 DeepMind 从事研究工作。之后加入 OpenAI 担任技术人员,致力于多模态人工智能研究。

图片

目前,Alexander Kolesnikov 在 Google Scholar 上的被引量已经达到了 9 万多。

image.png

### 解决方案概述 当遇到 `openai/clip-vit-large-patch14` 加载失败的问题时,通常是因为缺少必要的预训练权重文件或依赖项配置不正确。以下是针对该问题的具体解决方案[^2]。 #### 方法一:手动下载并缓存模型文件 如果自动加载器无法获取到所需的模型资源,则可以选择手动下载这些资源,并将其放置于本地缓存目录下: 1. 访问 Hugging Face 官方页面上的 [CLIP ViT-Large-Patch14](https://huggingface.co/openai/clip-vit-large-patch14/tree/main),找到对应的 PyTorch 权重文件和其他必要组件; 2. 下载所有必需的 `.bin`, `.json` 文件以及任何其他相关联的数据集描述符; 3. 将上述文件复制至 Python 环境中的 transformers 库默认使用的缓存路径内,默认情况下位于用户主目录下的 `.cache/huggingface/transformers/models--openai--clip-vit-large-patch14/snapshots/<commit_id>/` 中; 通过这种方式绕过了网络请求过程中的潜在障碍,从而提高了成功加载的可能性。 ```bash mkdir -p ~/.cache/huggingface/transformers/models--openai--clip-vit-large-patch14/snapshots/ cd ~/.cache/huggingface/transformers/models--openai--clip-vit-large-patch14/snapshots/ wget https://cdn.huggingface.co/openai/clip-vit-large-patch14/pytorch_model.bin ``` #### 方法二:更新环境变量设置 另一种可能的原因在于某些特定版本之间的兼容性差异所引起的冲突。此时可以通过调整环境变量来尝试解决问题: - 设置 `TRANSFORMERS_OFFLINE=1` 可以强制使用离线模式,在这种状态下只会查找已经存在于本地磁盘上的模型实例而不试图连接互联网; - 或者指定确切的目标提交哈希值作为参数传递给 Tokenizer 和 Model 的初始化函数调用,以此确保获得完全匹配的一致副本。 ```python import os os.environ["TRANSFORMERS_OFFLINE"] = "1" from transformers import CLIPProcessor, CLIPTokenizer, CLIPModel processor = CLIPProcessor.from_pretrained("openai/clip-vit-large-patch14", revision="main") model = CLIPModel.from_pretrained("openai/clip-vit-large-patch14", revision="main") tokenizer = CLIPTokenizer.from_pretrained("openai/clip-vit-large-patch14", revision="main") ``` 以上两种方式均有助于克服因网络状况不佳或其他因素造成的加载难题。对于大多数情况而言,采用其中任意一种策略都应能有效缓解乃至彻底消除此类异常现象的发生概率。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值