论文研读:Learning to rebalance multi-modal optimization by adaptively masking subnetworks

部署运行你感兴趣的模型镜像

英文题目:Learning to rebalance multi-modal optimization by adaptively masking subnetworks

中文题目:通过自适应掩码子网学习多模态优化的再平衡

IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE 2025
作者来自南京理工大学

论文获取

摘要

模态不平衡问题:偏向于占主导地位的模态而忽略其他模态,从而限制了整体效果。
现有方法:通常采用modal-level的控制机制调整每个模态参数的更新。
存在问题:这种全局范围内的更新机制忽略了每个参数的不同重要性。
本文:受子网络优化的启发,探索了一种基于均匀采样的优化策略,其比全局更新更为有效。提出了一种基于重要性采样的元素级联合优化方法,称为Adaptively Mask Subnetworks Considering Modal Significance (AMSS)。具体而言,通过引入互信息率来确定模态的重要性,并采用非均匀自适应采样方法从每个模态中选择前景子网络进行参数更新,从而实现多模态学习的平衡。

引言

写作参考句:Compared with single-modal data, multi-modal data is more informative and covers a wider range of information dimensions and diversity. Hence, it is more important to use multiple modal data to perceive the world. By leveraging multi-modal data, multi-modal learning strives to surpass single-modal learning, capturing widespread attention across diverse domains.

作者发现:element-wise modulation strategy效果优于其他策略
在这里插入图片描述
主要贡献:

  1. 提出了一种名为AMSS的新型元素级更新方法,以解决模态不平衡问题。AMSS能够精细地激发非主导模态,并减轻主导模态的抑制作用。
  2. 通过理论分析展示子网络更新策略在不平衡多模态学习中的有效性。此外,基于理论研究结果,引入了一种在无偏估计下的新型掩码策略,称为 AMSS+。
  3. 在各种不同的模态场景中进行了大量实验,证明了细粒度子网络优化在实现多模态网络的均衡学习方法方面的有效性。

相关工作

  1. 多模态学习:列举了一些现有方法,这些方法的有效性取决于这样一个假设,即在联合训练过程中,每种模式都能发挥足够的作用。
  2. 不平衡的多模态学习:不平衡的多模态学习旨在重新平衡非主导模态和主导模态的拟合速度,确保在模型训练过程中每个模态都能得到充分利用。
  3. 子网络优化:所有子网络优化技术都是针对单个训练模型设计的,并且难以扩展到具有数据不平衡特征的多模态模型的联合训练中。

多模态网络的再平衡

在大多数多模态学习任务中,都会假定两种模态都能预测目标。因此,信息论能够自然地阐明模态的重要性,特别是互信息。

实验

与CNN架构相比,transformer架构下模态再平衡方法的有效性有限。

您可能感兴趣的与本文相关的镜像

Qwen3-VL-30B

Qwen3-VL-30B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

Vite是一个轻量级的前端构建工具,它使用了现代的架构来加速开发过程。然而,当你遇到"Vite build FATAL ERROR: NewSpace::Rebalance Allocation failed - JavaScript heap out of memory"错误时,这通常表示JavaScript运行环境(浏览器或Node.js)的内存已耗尽,无法完成构建过程。 这种错误通常是由于以下几个原因: 1. 构建文件过大:如果你的项目中包含了大量的静态资源或处理复杂的代码,可能导致构建过程中生成的中间文件过大,消耗了大量内存。 2. 无限递归或循环引用:代码中可能存在递归调用或者模块之间的循环引用,这会导致内存占用持续增加。 3. 缓存问题:Vite有时会缓存大量的中间文件,如果没有正确清理,也可能造成内存溢出。 4. 配置错误:如指定的内存限制不足,或者在Node.js环境中未设置足够的`--max-old-space-size`参数。 解决这个问题的方法包括: - 清理缓存:在Vite目录下执行`rm -rf node_modules`和`rm -rf .vite`。 - 增加Node.js内存:如果是Node.js环境,尝试运行`node --max-old-space-size=4096 build.js`,将`4096`替换为更大的数值,但要注意不要设置得过高,以免影响性能。 - 检查并优化代码:查看是否有无限递归或循环引用,以及是否有大文件可以压缩或分割。 - 适当调整Vite配置:如果内存不足是配置问题,查阅Vite的官方文档了解如何设置合理的内存限制。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值