DA Faster-RCNN(Q&A与核心问题讲解)

用于目标检测的域适应

训练数据:源域——测试数据:目标域

其核心其实就是将域分类器的错误率最大化,让其无法分辨清楚

设计原理也是,加上三个组件,加上三部分loss函数,使得分类器效果越来越好,且原网络的跨域性也越来越好。

  • 相反优化:通过将域分类器的梯度反向传播给CNN,实际上是在鼓励CNN学习到与域分类器学习到的差异性特征相反的特征。这样一来,CNN就会倾向于学习到源域和目标域之间共有的特征,从而提高模型的跨域性。

核心即是使CNN学习到源域与目标域之间的共有特征。

公式原理——证明方法可行性

Img层次

需要保证P(I)的分布在两个域相同即可。

检测器在两个领域之间应是一致的,给定一张图片,无论它属于哪个领域,检测器都应该返回相同的检测结果(位置与类别相同)

因此,第一个组件的目的:

第一个组件的LOSS设计为:

Instance层次

因此边缘分布P ( B , I )应该保持一致。

两个领域之间的语义信息应保持一致性,即给定包含对象的相同图像区域,无论他属于哪个哪个域,他们的类别标签应该相同

由于

仅在P ( B ∣ I ) P(B|I)P(BI)领域不变的情况下成立

因此第二个组件的目的:

第二个组件的LOSS设计为:

联合自适应

理想情况下,可以实现图像级别和实例级别的领域对齐,考虑到P(B,I)=P(B|I)P(I),并且两个域的条件分布 P(B|I)假设相同且非零,有如下公式成立:

如果图像级表征的分布在两个域之间相同,则实例级表征也在两个域之间相同。

然而,完美地估计条件分布P ( B ∣ I ) 是不太现实的,即RPN模块不能完美地预测边界框,原因如下:①实践中,可能很难完美地对齐边界分布P ( I ) ,因此用于估计的P ( B ∣ I )在某种程度上是存在偏差的;②物体边界框信息仅在源域数据可用,因此P ( B ∣ I ) 仅能使用源域数据来学习,很容易让其偏向源域数据。 因此第三个组件的目的是减轻两个域内P(B | I)的差距。(即P(B | D,I)与P(B | I)之间的差距)。

由贝叶斯定理可以推出下述公式证明了为了尽力使两个领域分类器之间保持高一致性,即为了达到(B | D,I) = P(B | I)

可以构造一致性正则化器使 P(DB,I)与P(DI) 尽可能靠近

因此,第三个组件:

注意u,v,i,j分别代表什么

即是将第i张特征图中所有patch的$P_D$(域分类器输出结果)的平均值与第i张特征图中第j个区域的分类器输出结果进行正则化。

损失函数

最后将,上述三个组件的loss与Faster-RCNN自身的loss组合后即是总体损失函数。

Q&A

  • 论文如何定义和量化“域”的概念? 论文中通常通过统计特征(如均值、方差)或深度特征来衡量不同域之间的差异。例如,可以通过计算两个域的特征均值之间的距离来衡量域偏移的程度。

  • 论文是如何解决图像级和实例级域偏移问题的?

    • 图像级域偏移: 通过对抗学习,使得模型学习到域不变的特征表示,从而减小图像级别的域偏移。
    • 实例级域偏移: 通过对齐不同实例的特征,使得模型能够更好地适应目标域中不同类别的样本。
  • 协变量偏移假设: 协变量偏移假设是指源域和目标域的数据分布不同,但标签的条件概率分布保持不变。这个假设是许多领域自适应方法的基础。

  • H散度: H散度是一种用来衡量两个概率分布之间差异的统计量。在领域自适应中,H散度常用来度量源域和目标域的分布差异。

  • 一致性正则化: 一致性正则化是通过鼓励模型在不同的输入扰动下产生一致的输出,来提高模型的鲁棒性。

  • 模型的泛化能力评估: 通过在多个目标域上进行测试,来评估模型的泛化能力。

  • H-divergence理论用于度量两个不同分布样本集之间的差异,论文中用它来指导领域对抗训练。

  • 领域分类器是基于特征向量预测样本属于源域还是目标域的分类模型。

  • 一致性正则化确保不同层面的领域分类器输出的概率一致,从而学习到领域不变的特征。

  • 端到端训练是指整个网络结构可以一次性训练,无需分开训练各个组件。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值