人大:LLM数学指令融合增强

在这里插入图片描述

📖标题:MathFusion: Enhancing Mathematic Problem-solving of LLM through Instruction Fusion
🌐来源:arXiv, 2503.16212

🌟摘要

🔸大型语言模型(LLMs)在数学推理方面取得了令人瞩目的进展。虽然数据增强有望提高数学问题解决能力,但目前的方法主要局限于实例级的修改,如重新措辞或生成句法变化,这些修改无法捕捉和利用数学知识中固有的内在关系结构。
🔸受人类学习过程的启发,数学能力是通过系统地接触相互关联的概念来发展的,我们介绍了MathFusion,这是一种通过跨问题教学综合来增强数学推理的新框架。MathFusion通过三种融合策略实现了这一点:(1)顺序融合,将相关问题链接到模型解决方案依赖关系;(2) 并行融合,结合类似问题以加强概念理解;以及(3)条件融合,它创建了上下文感知的选择问题,以提高推理的灵活性。通过应用这些策略,我们生成了一个新的数据集MathFusionQA,然后对其进行了微调模型(DeepSeekMath-7B、Mistral-7B、Llama3-8B)。
🔸实验结果表明,MathFusion在保持高数据效率的同时,在数学推理方面取得了实质性的改进,在各种基准测试中提高了18.0分的准确性,同时只需要45K额外的合成指令,这比传统的单指令方法有了实质性改进。我们的数据集、模型和代码可在https://github/QizhiPei/mathfusion上公开获取。

🛎️文章简介

🔸研究问题:大语言模型(LLM)在解决复杂数学问题时,如何有效捕捉和利用数学知识的内在关系结构?
🔸主要贡献:论文提出了一种新的数据增强方法MathFusion,通过问题融合策略提高了LLM的数学推理能力,显著提升了模型在多步数学问题上的解决能力。

📝重点思路

🔸论文首先介绍了数学问题对的构建方法,选取具有相似类型和上下文的问题进行融合。
🔸采用三种融合策略:顺序融合(Sequential Fusion)、并行融合(Parallel Fusion)和条件融合(Conditional Fusion),将两个数学问题合成一个新的问题,以增强数学问题的关联性和逻辑一致性。
🔸基于融合生成的问题集,构建了MathFusionQA数据集,并利用该数据集对大型语言模型(如DeepSeekMath-7B、Mistral-7B和Llama3-8B)进行微调。

🔎分析总结

🔸融合后的数据集在多样性和难度上都优于原始数据集,有助于减少模型过拟合的风险。
🔸MathFusion方法使LLM能够有效捕捉数学任务的内在关系结构,从而增强其解决复杂多步问题的能力。
🔸在多个基准测试中,MathFusion在数学推理准确性上取得显著提升,平均提高了18.0个百分点,且所需的额外合成指令数量远低于传统方法。
🔸与当前最先进的数据增强方法DART-Math结合使用时,MathFusion进一步提升了模型的表现,显示出两者的互补性。
🔸三种融合策略的组合使用能够进一步提高模型的数学能力,尤其是在基础模型性能较弱时,提升效果更为明显。

💡个人观点

论文的核心是提出了数学问题的融合,不仅提升了数据的多样性和挑战性,而且增加了数学问题的关联性和逻辑一致性。

🧩附录

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大模型任我行

随意啦,喜欢就好~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值