GPT-4参数最新爆料1.76万亿参数,8个2200亿MoE模型,深信不疑

据GeorgeHotz透露,GPT-4可能是由8个220B参数的模型组成的混合专家模型,总参数量达到1.76万亿。OpenAI的这种训练策略涉及多次推断和不同数据分布,使得训练更为高效。网友对此表示惊讶,并讨论了这种类似于MoE(混合专家模型)的架构对未来AI发展的影响。






家人们,GPT-4的参数可能还真不止1万亿!近来,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。这么算来,8 x 220B = 1.76万亿。就连PyTorch的创建者Soumith Chintala对此也深信不疑。GPT-4:8 x 220B专家模型用不同的数据/任务分布和16-iter推理进行训练。如果真是这样的话,GPT-4的训练可能更加有效。7d07b3279ffda6269e883b95189f159d.jpeg

1.76万亿「八头蛇」?


在GPT-4还未放出之前,GPT-3有1750亿个参数,一众网友猜测GPT-4岂不是要逆天,最起码1万亿。a8ff12664a65928ca726accffeb8ed0c.jpeg而George在接受Latent Space的采访时,对GPT4架构的描述着实让人震惊。他的部分原话如下:

GPT-4每个head都有2200亿参数,是一个8路的混合模型。所以,混合模型是当你想不出办法的时候才会做的。OpenAI训练了相同模型8次,他们有一些小技巧。他们实际上进行了16次推断。

他特别强调,OpenAI做了8个混合专家模型,任何人可以花8倍资金都能训练出来。也就是说,人们能够训练更小模型更长时间,微调后,就能找到这些技巧。OpenAI曾经发表类似关于让计算量不变的情况下,让训练更好的算法,比较像BatchNorm和NoBatchNorm。a57b483c945c13e828f63be6e715bbc3.jpeg一起看看George Hotz具体的介绍视频:

网友热评

就像George所说,这是8个较小的模型,如果有足够资金训练8个混合模型,这是一个微不足道的解决方案。37ffc55fc71ab8d1b54878dfecd8680b.jpeg所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是......真的?!3a5c354e6bb52d013575626c3a764321.jpeg网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。cd4f24a0fdf03584151e1ef7e1d8c440.jpeg还有网友称,这有点像LLM-Blender。daed14e909bf28dcc42c77aa8a46c497.jpeg我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。MoE和大约1万亿个参数不会让我感到惊讶,这听起来极为合理。02a65bacd74103f572b9b052caa47dad.jpeg还有网友进行深度分析:老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。6f56b259856c717b05943328974b701b.jpeg如果这是真的,这是否意味着每个220B模型也有32K的上下文长度?a12814f984bc033eef2546e7a95d4a1d.jpeg




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

手把手教你学AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值