论文笔记-All about Structure - Adapting Structural Information across Domains for Boosting Semantic Segm

论文信息

  • 论文标题:All about Structure - Adapting Structural Information across Domains for Boosting Semantic Segmentation

  • 论文作者:Wei-Lun Chang, Hui-Po Wang, Wen-Hsiao Peng, Wei-Chen Chiu

  • 研究机构:台湾交通大学

  • 论文出处:CVPR 2019

  • 引用信息:

    @inproceedings{DBLP:conf/cvpr/ChangWPC19,
      author    = {Wei{-}Lun Chang and
                   Hui{-}Po Wang and
                   Wen{-}Hsiao Peng and
                   Wei{-}Chen Chiu},
      title     = {All About Structure: Adapting Structural Information Across Domains
                   for Boosting Semantic Segmentation},
      booktitle = {
        {IEEE} Conference on Computer Vision and Pattern Recognition, {CVPR}
                   2019, Long Beach, CA, USA, June 16-20, 2019},
      pages     = {1900--1909},
      publisher = {Computer Vision Foundation / {IEEE}},
      year      = {2019},
      url       = {http://openaccess.thecvf.com/content\_CVPR\_2019/html/Chang\_All\_About\_Structure\_Adapting\_Structural\_Information\_Across\_Domains\_for\_Boosting\_CVPR\_2019\_paper.html},
      doi       = {10.1109/CVPR.2019.00200},
      timestamp = {Thu, 27 Aug 2020 07:31:34 +0200},
      biburl    = {https://dblp.org/rec/conf/cvpr/ChangWPC19.bib},
      bibsource = {dblp computer science bibliography, https://dblp.org}
    }
    
  • 代码链接:https://github.com/a514514772/DISE-Domain-Invariant-Structure-Extraction

论文主要贡献和参考价值

  • 主要贡献:

    • 提出 DISE
    • (1)学习的图像特征包含一个域无关的结构组成和一个域相关的纹理组成;
    • (2)只是使结构组成域无关;
    • (3)实现跨域的图像转换,可进一步进行图像标签的迁移。DISE 重点强调对结构信息与纹理信息的分离,同时维持清晰的结构特征
  • 参考价值:

    • 域适应方法(特征分离整理,和 SharinGAN 类似)
  • 结构信息与纹理信息的整理分离

    论文要点翻译

    • 摘要
      • 本文主要解决无监督域适应的问题,并将其运用于语义分割任务。其中,主要利用从合成场景数据学习到的知识迁移到真实场景数据
      • 本文假设语义分割的最关键信息是图像的结构性内容,而且结构性内容是不同数据域所共享的,因此,本文提出 DISE,即域无关的结构信息提取,用于将图像分解为域无关的结构信息和域相关的纹理表示信息,可以进一步依据二者实现不同域的转换,使得标签迁移成为可能,可以进一步改进语义分割性能
      • 实验结果表明,DISE 可以超越几个典型的 SOTA 方法
    • 引言
      • 语义分割任务关键在于预测图像中每个像素对应的类别标签,是计算机视觉中最具挑战性的任务之一,近年来,深度学习的复兴使得语义分割任务达到新的性能基准,引入的全卷积网络,在图像分类场景的预训练模型的基础上利用许多技巧进行语义分割的增强(加大按首页、保留上下文信息等),但是这些方法主要是监督学习方法,因此依赖于大批量的标注数据
      • 为了解决该问题,一个有效的解决方案就是在合成数据上训练模型,现今的合成引擎已经能够合成高质量、逼真的虚拟场景图像,因此可以利用合成引擎生成大批量数据及其对应的标签,但是,在合成场景训练的分割模型难以在真实场景中保持较好的性能,主要原因在于合成数据与真实数据之间存在的域偏差问题,也就是合成图像和真实图像之间仍在低级的纹理等方面存在差异
      • 域适应是将源域学习的知识迁移到目标域的方法,常见的域适应方法是通过匹配不同域的特征的分布,进而提取得到域无关的特征,最近的工作也有在结构化的输入空间引入分布对齐的,但是这些方法主要假设两个域之间的所有特征或者输出空间是可以较好地对齐的,因此可以得到域无关的特征表示用于实现问题中的任务
      • 本文提出的 DISE 框架是用于语义分割的域适应模型,本文假设图像中的高级的结构信息是对语义分割任务最有效的,因此,本文的 DISE 主要意图发现域无关的结构特征,这一点通过从图像的域相关的纹理信息中抽离处域无关的结构信息而实现
      • 方法和之前的方法不同点在于:(1)学习的图像特征包含一个域无关的结构组成和一个域相关的纹理组成;(2)只是使结构组成域无关;(3)实现跨域的图像转换,可进一步进行图像标签的迁移。DISE 重点强调对结构信息与纹理信息的分离,同时维持清晰的结构特征
    • 相关工作
      • 和图像分类任务不同,之前的许多域适应方法都是在图像分类任务上进行的,由于语义分割的任务输出是高度结构化的具有上下文的语义信息,本文认为使用分布对齐、图像转换、标签转换等可以大致将域适应方法进行归纳整理
      • 和用于图像分类的域适应方法一样,可以利用不同的评价标准将不同域的分布进行匹配(在特征空间或者输入空间),代表工作是在输出的语义分割图基于空间上下文相似性进行判断,但是这个假设是两个域的输出空间是完全可以对齐的,考虑到外观的差异,合成数据和真实数据在实际情况中这一点可能并不成立
      • 最近的 I2I 任务和风格转换中将源域图像获取目标域的风格纹理外观特性,这个转换过程使得语义分割模型可以使用转换的数据增强训练数据,在图像转换过程中学习到的共有的特征空间也可以成为帮助学习域无关语义分割模型的工具
      • 图像转换任务使得语义分割中可以将源域的标签泛化迁移到目标域,提供目标域的额外监督信号,学习目标域图像可用的模型,但是风险在于直接进行图像翻译可能不利于模型学习,因为可能会将很多域相关的信息带入目标域
      • 提出的 DISE 则是利用上述三种策略,假设图像的高级的结构信息可以作为语义分割最有效的信息,其中 DISE 将图像的低级纹理这样的域相关的信息与高级的结构这样的域无关信息进行分离
    • 方法
      • 本文提出 DISE 用于解决语义分割的域适应问题,重点在于显示地约束编码器,使得共享的编码器可以捕捉结构特征,而私有的编码器则捕获细节的纹理特征,结合迁移图像的标注
      • 域无关结构信息提取
        • DISE 学习:基于 N s N_s Ns 成对的有标注的图像源数据 X s = { ( x i s , y i s ) } i = 1 N s X^s=\{(x_i^s,y_i^s)\}_{i=1}^{N_s} Xs={ (xis,yis)}i=1Ns 和无标签的目标域数据 X t = { x i t } i = 1 N t X^t=\{x_i^t\}_{i=1}^{N_t} Xt={ xit}i=1Nt,网络主要由五个部分组成:(1)共享编码器,(2)两个域相关的私有编码器;(3)共享的解码器;(4)像素级的分类器
        • 给定源域图像 x s x^s xs 作为输入,共享编码器得到域无关的高级结构信息表示 z c s = E c ( x s ) z^s_c=E_c(x^s) zcs=Ec(xs),并生成私有的域相关的纹理细节信息 z p s = E p s ( x s ) z_p^s=E_p^s(x^s) zps=Eps(xs),两个信息表示相互补充,两者结合在一起可以使得解码器恢复原始图像得到 x ^ s 2 s = D ( z c s , z p s ) \hat x^{s2s}=D(z_c^s,z_p^s)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值