DPPA: Pruning Method for Large Language Model to Model Merging

本文介绍了DPPA——一种针对复杂微调模型的动态修剪分区放大方法,以解决模型合并时的参数冲突。动态修剪(DP)改进了幅度修剪,提高高修剪率下的性能;动态分区放大(DPA)则根据参数重要性动态调整。实验显示,DPPA仅保留20%的参数,但性能与保留90%参数的方法相当,且能提升模型合并性能约20%。

本文是LLM系列文章,针对《DPPA: Pruning Method for Large Language Model to Model Merging》的翻译。

DPPA:大型语言模型到模型合并的修剪方法

摘要

模型合并是将来自多个领域的微调模型组合在一起,目的是提高模型在各个领域的熟练度。主要关注的是参数冲突的解决。大量现有研究在合并阶段解决了这一问题,最新研究集中在整个修剪阶段解决这一问题。当应用于简单的微调模型时,DARE方法显示出有希望的结果。然而,当用于复杂的微调模型时,这种方法的有效性往往会减弱,这些模型显示出相对于基线模型的显著参数偏差。在本文中,我们介绍了一种称为动态修剪分区放大(DPPA)的双阶段方法,旨在解决合并复杂微调模型的挑战。首先,我们介绍了动态修剪(DP),这是一种基于幅度修剪的改进方法,旨在提高较高修剪率下的性能。随后,我们提出了动态分区放大(DPA),这是一种重新缩放策略,旨在动态放大与其显著性水平相关的参数分区。实验结果表明,我们的方法只保留了20%的领域特定参数,但其性能与其他方法相当,这些方法保留了高达90%的参数。此外,我们的方法在修剪后表现出出色的性能,使模型合并的性能显著提高了近20%。我们在Github上制作代码。

1 引言

2 相关工作

3 方法

4 实验

5 结论

在这项研究中,我们引入了一种称为DP的修剪方法,这是一种基于幅度修剪的改进方法,可以在更高

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值