【论文阅读】结合空洞卷积的 FuseNet变体网络高分辨率遥感影像语义分割
一、论文总体框架
首先,采用 FuseNet变体网络将数字地表模型(digital surface model,DSM)图像中包含的高程信息与红绿蓝(red green blue,RGB)图像的颜色信息融合
其次,在编码器和解码器中分别使用空洞卷积来增大卷积核感受野;最后,对遥感影像逐像素分类,输出遥感影像语义分割结果
高分辨率语义分割图像基本分为:
- 红绿蓝(red green blue,RGB)信息
- 数字地表模型(digital surface model,DSM)
文中所提及的在对相应图片处理时
分别提取红绿蓝(red green blue,RGB)信息和数字地表模型(digital surface model,DSM)
信息,并将它们融合集成到 SegNet结构中进行语义分割,获得高分辨率的多模态预测 RGB‐DSM数据用于异构数据源的联合学习
参考文献: Sherrah J. Fully Convolutional Networks for Dense Semantic Labelling of High‐Resolution Aerial Imagery[EB/OL]. (2016‐06‐08)[2020‐06‐22].
https://www. doc88. com/p-0704858988942. html
二、数据集的使用
采用的数据集:
国际摄影测量与遥感学会(Interna‐tional Society for Photogrammetry and Remote Sensing,ISPRS),
Potsdam、Vaihingen数据集
数据集介绍:

本文提出一种基于FuseNet变体网络的高分辨率遥感影像语义分割方法,利用空洞卷积增强感受野,融合RGB与DSM信息进行多模态预测。
最低0.47元/天 解锁文章
459





