【CVPR2025】DPC:双提示协作用于视觉-语言模型调优

来源:专知
本文约1000字,建议阅读5分钟
我们提出了一种即插即用的双提示协作(Dual-Prompt Collaboration, DPC)框架,首次在提示级别上解耦基础任务和新任务的优化过程。

图片

基础-新类别权衡(BNT)问题在基于 CLIP 的提示调优(Prompt Tuning)优化过程中普遍存在,表现为对基础(目标)类别的持续微调会同时导致模型在新(未见)类别上的泛化能力下降。现有方法尝试通过添加约束来调节提示调优过程,以平衡 BNT 问题。然而,这些约束作用于同一目标提示,无法完全避免基础类别和新类别优化方向之间的互斥性。针对这一挑战,我们提出了一种即插即用的双提示协作(Dual-Prompt Collaboration, DPC)框架,首次在提示级别上解耦基础任务和新任务的优化过程。具体而言,我们基于骨干提示(backbone prompt)克隆了一个可学习的并行提示,并引入了一个加权解耦框架(Weighting-Decoupling Framework),以独立控制针对基础任务或新任务的双提示优化方向,从而避免泛化冲突。同时,我们提出了一种动态硬负样本优化器(Dynamic Hard Negative Optimizer),利用双提示为基础类别构建更具挑战性的优化任务,以增强模型性能。为了增强可解释性,我们证明了提示向量在优化过程中的特征通道不变性,为 DPC 的加权解耦提供了理论支持。在多个骨干模型上的广泛实验表明,DPC 能够在不引入任何外部知识的情况下,显著提升模型在基础类别上的性能,同时保持对新类别的泛化能力。代码已开源,可在以下链接获取:https://github.com/JREion/DPC。

图片

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值