Pre-training under infinite compute

一、文章主要内容

本文聚焦“数据受限但计算资源无限”的语言模型预训练场景(因预训练计算量年增长4倍,而网络文本数据年增长仅1.03倍),核心研究如何在固定数据下通过优化算法实现高效预训练,具体内容如下:

  1. 基准方案的局限性:传统数据受限预训练方案(增加训练轮次、扩大模型参数)会因过拟合导致性能上限,例如过多轮次或过大参数会使验证损失回升,即使投入更多计算资源也无法突破瓶颈。
  2. 正则化参数缩放方案:通过联合优化权重衰减、学习率和训练轮次,发现超参数化模型的最优权重衰减是标准实践(0.1)的30倍。优化后模型损失随参数数量增加呈幂律单调下降(如200M tokens数据下,损失公式为L^200M,N=0.05N1.02+3.43\hat{L}_{200M,N}=\frac{0.05}{N^{1.02}}+3.43
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值