2019 AAAI Transferable Attention for Domain Adaptation

该博客探讨了在领域适应(Domain Adaptation)中使用可迁移注意力(Transferable Attention)的概念。通过将DANN(Domain Adversarial Neural Network)模型分解为局部和全局注意力模块,作者旨在识别和强调不同尺度上的关键区域。实验表明,这种多尺度的注意力机制能提高模型的适应性和鲁棒性。在实验部分,详细介绍了局部和全局注意力的实现方式以及它们对整体模型性能的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


提出了 Transferable Attention for Domain Adaptation (TADA), a novel multi-adversarial多对抗 domain adaptation approach with both global and local attention mechanism。

标题local

直观来讲,就是把DANN 拆成 K = W ∗ H K = W*H K=WH个region, 在这些region上进行对抗学习,W和H是最后一层卷积层feature map的尺寸。 把原来的“as a whole” 拆分成K个region,并且预测每一个子部分的domain label。
同时,运用attention机制,将重要部分赋予大weight。如何计算这个weight?用entropy 函数来度量不确定性,公式(3)。source的label是1,target是0。(3)的左边如果很小,意味着d的label更倾向正确,判断对了,所以weight更大。
在这里插入图片描述

如果是错误的local attention, 为了减少对model的影响,作者设计了residual机制:
在这里插入图片描述

global

动机:为什么要global attention
由于图像旋转或其他变化,很可能只有少部分region可以align,所以要在global level上再对抗一次。

实验

把model拆成了局部,全局,局部加全局,分别介绍local att和global att是如何产生的。还是DANN基础上,扩充了domain loss,从不同的leve上,提出了这就是multi-adversarial DA。
在这里插入图片描述

上面的两种local处理,就是量化了transferability。

可迁移attention(TA) focus on : similarity or distinction between two objects—to reason about whether they are transferable. 提出重要的事实 the attention may be multi-scale,多尺度的 local 对应regions(a specific part of an object.),global对应the whole

Transferable Local Attention

local discriminator
在这里插入图片描述
回顾了DANN
local attention 突出了部分region,相对于background。
怎么实现的呢?
G

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值