本文是LLM系列文章,针对《SKYMATH: TECHNICAL REPORT》的翻译。
摘要
大型语言模型(LLMs)在解决各种自然语言处理(NLP)任务方面显示出巨大的潜力,包括数学推理。在这项工作中,我们介绍了SkyMath,这是一个具有130亿个参数的大型数学语言模型。通过应用自比较微调,我们显著提高了Skywork-13B-Base的数学推理能力。在GSM8K上,SkyMath的表现优于所有已知的类似大小的开源模型,并建立了新的SOTA性能。在数据集MATH和域外数据集CMath上,SkyMath也实现了很高的准确率,对各种数学问题表现出显著的泛化能力。
1 引言
2 相关工作
3 方法
4 实验
5 主要结果
6 结论和未来工作
本文介绍了SkyMath,这是一个通过自比较进行微调的数学模型。评估结果表明,SkyMath在GSM8K上所有现有的类似大小的开源LLM上都实现了SOTA性能,并显示出对域外数学问题的显著泛化能力。考虑到我们没有使用工具或奖励模型,结果就更加困难了。