TADA
提出了 Transferable Attention for Domain Adaptation (TADA), a novel multi-adversarial多对抗 domain adaptation approach with both global and local attention mechanism。
标题local
直观来讲,就是把DANN 拆成 K = W ∗ H K = W*H K=W∗H个region, 在这些region上进行对抗学习,W和H是最后一层卷积层feature map的尺寸。 把原来的“as a whole” 拆分成K个region,并且预测每一个子部分的domain label。
同时,运用attention机制,将重要部分赋予大weight。如何计算这个weight?用entropy 函数来度量不确定性,公式(3)。source的label是1,target是0。(3)的左边如果很小,意味着d的label更倾向正确,判断对了,所以weight更大。
如果是错误的local attention, 为了减少对model的影响,作者设计了residual机制:
global
动机:为什么要global attention
由于图像旋转或其他变化,很可能只有少部分region可以align,所以要在global level上再对抗一次。
实验
把model拆成了局部,全局,局部加全局,分别介绍local att和global att是如何产生的。还是DANN基础上,扩充了domain loss,从不同的leve上,提出了这就是multi-adversarial DA。
上面的两种local处理,就是量化了transferability。
可迁移attention(TA) focus on : similarity or distinction between two objects—to reason about whether they are transferable. 提出重要的事实 the attention may be multi-scale,多尺度的 local 对应regions(a specific part of an object.),global对应the whole
Transferable Local Attention
local discriminator
回顾了DANN
local attention 突出了部分region,相对于background。
怎么实现的呢?
把 G