PFENet:Prior Guided Feature Enrichment Network for Few-Shot Segmentation
作者:Zhuotao Tian, Hengshuang Zhao, Michelle Shu, Zhicheng Yang, Ruiyu Li, Jiaya Jia, Fellow, IEEE(贾佳亚,香港中文大学)
发表:2020TPAMI
关键词:小样本分割
论文:[2008.01449] Prior Guided Feature Enrichment Network for Few-Shot Segmentation (arxiv.org)
背景
1. 小样本分割任务

2. 小样本分割的挑战
- 高层特征的误用导致的泛化损失(未知类别泛化损失弱)
- 查询样本和空间样本之间的空间不一致
动机
问题1:高层特征误用导致的泛化损失
在CANet论文中,实验表明,**使用中层特征比使用高层特征,实验性能更好。**在特征处理中,简单地使用高层特征会导致性能下降。
CANet认为的原因:
中层特征是由看不见的类共享的对象部分组成,可能蕴含着未知类别的特征。
作者认为的原因:
- 高层特征中包含的语义信息比中间层特征更class-specific(特定于类),所以高层特征更有可能使模型对未见类的泛化能力产生负面影响。
- 高层特征直接提供语义信息,在识别属于训练类别的像素和减少训练损失上的贡献大于中层特征,从而导致对训练类的偏爱。
所以,缺乏泛化性和对训练类的偏好都对未知类的测试产生影响。
但与此同时,之前的分割框架都是利用高层特征为最终预测提供语义线索。
因此,问题动机转化为,如何在训练不敏感的方式中利用高层特征信息来增强小样本分割的性能。
问题2:支持和查询样本空间不一致
现有大多方法利用掩膜全局平均池化从训练图像中提取类别向量。但是,因为查询图像中的目标可能会比支持样本大得多或小得多,或者姿态相差很大,所以使用全局平均池化会导致空间信息不一致。
因此,由于全局平均池化会导致空间信息不一致,直接使用MAP匹配查询特征的每个像素并不理想。
方法
-
针对高层特征误用导致的泛化损失问题 —— 先验泛化方法
利用查询和支持图像的高层特征来生成模型的“先验值”(无需训练)
- 先验信息有助于模型更好地识别查询图像;
- 高层特征是从预先训练的ImageNet中得到的,所以生成先验的过程并没有增加额外的训练过程,所以生成的模型不会失去对未见类的泛化能力。
- 极大地提高了预测精度,保持了高泛化性
-
针对支持和查询样本空间不一致问题 —— FEM方法
通过整合支持特征和先验信息,利用条件化的跨尺度信息交互自适应地丰富查询特征
-
水平地交互查询特征与每个尺度中的支持特征和先验掩码
-
垂直利用层次关系,通过自顶向下的信息路径,从精细特征中提取必要信息,丰富粗特征图
-
水平和垂直优化后,收集不同尺度的特征,形成新的查询特征
-
总体框架

-
通过预训练的CNN,分别得到支持图像和查询图像的高层特征和中层特征。
-
利用中层特征生成查询和支持特征。
-
利用高层特征生成先验掩膜。
-
特征富集模块(FEM)利用支持特征和先验掩膜丰富查询特征。
-
损失函数: L = σ n ∑ i = 1 n L 1 i + L 2 L=\frac{\sigma}{n}\sum_{i=1}^nL_1^i+L_2 L=nσ∑i=1nL1i+L2 不同空间大小在New Query feature上的损失 + 最后的预测损失
Prior generation
目的:将高层特征转化为先验掩膜(prior mask)
- 先验掩膜:像素属于目标类的概率。具体来说,揭示查询特征和支持特征之间像素级的对应关系。掩膜上的一个高值像素表明对应的查询像素与支持特征中的至少一个像素具有高对应关系。所以此像素很可能处于查询图像的目标区域。
- 此处的支持特征背景被设为0,所以查询特征的像素与支持特征上的背景没有对应关系。
构造先验掩膜:
-
计算查询特征 X Q X_Q X

这篇博客介绍了PFENet,一种针对小样本分割任务设计的网络,通过解决高层特征泛化损失和空间不一致问题,采用先验生成和特征富集模块(FEM)提升性能。它利用高层特征生成先验掩码,并结合支持特征和先验信息,实现跨尺度交互和信息集中,从而提高模型的泛化能力和空间一致性。
最低0.47元/天 解锁文章
4276

被折叠的 条评论
为什么被折叠?



