IGARSS2017_SSRN 读后感DEEP RESIDUAL NETWORKS FOR HYPERSPECTRAL IMAGE CLASSIFICATION

本文探讨了深度学习模型在高光谱成像(HSI)分类任务中的表现,特别是残差网络(ResNets)相较于传统卷积神经网络(CNNs)的优势。研究发现,残差网络不仅提升了分类精度,还改善了模型的鲁棒性。文中还介绍了批量规范化、t-SNE降维算法的作用及如何解决深层网络中的梯度消失问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

全文都在和CNN作比较

最强优点鲁棒性

v Challenge首先,Hughes现象是指随着训练数据维数的增加,识别准确率急剧下降,来自数百个频谱带[2]。 其次,它们的高空间分辨率使得小物体的识别成为可能,但增加了相邻像素之间的高相关性。

v 3DCNN模型的分类精度随层数的增加而减小。 DL模型最近的应用表明,利用模型学习的特征而不是手工特征来分析HSI是一种新的趋势。

v Res网络缓解了精度下降的影响,并取得了很好的分类性能,为每两个卷积层添加身份映射到卷积神经网络来构建深度残差网络,卷积层可以如下制定。

                      

                       

在等式(1)中,Hk表示模型中第k层的输出,Fk是第k卷积滤波器组,bk表示第k层的偏差,G是整形线性单元(Re LU)。给定足够的标记数据,CNN可以产生比传统的机器学习方法更准确的分类结果。

v 批量标准化定义如下。

            

在等式(2)中,X表示特征批X的第i维,E表示期望值,VAR表示特征的方差。维度降低(DR)在HSI可视化和分类中起着重要的作用[11]

在相似样本上构建概率分布并保留高维数据的局部结构的t-SNE是一种将HSI数据嵌入到低维空间的降维方法。每次迭代的t-SNE结果通过Kullback-LeiblerKL)发散的最小化来执行,其可以写为如下。

      

在等式(3)式中,P表示第i个样本和第j个样本的相似度,q表示投影特征空间中的相应相似度。

v 残差网络可以如下表示。

          

在等式 4)中,Xk是第k个单元的输出,Wk是残差结构的参数。 堆叠的非线性层旨在构造函数F(XkWk)而不是直接映射期望的Xk + 1。 与CNN相比,深度剩余网络1)更易于优化; 2)有更多的代表能力; 3)更深层次的识别精度更高。

在不同数量的卷积核和不同层次的HSN分类中的CNN参数。受启发[12],我们采用改进的残差网络进行HSI分类。 Tabel I显示Res NetsCNNs,其内核数为{8,16,24,32,40}神经层数量为{4,6,8,10}。所有深度学习模型的输入数据是7×7×b HSI量,其中b是band number。

v 具有正则化方法的深度学习模型一致地产生比原始模型更高的分类准确性。

v 梯度消失Although  this  phenomenon  still  exists  in Res Net  models,  the  classification  accuracies  of  which  are more robust than their CNN counterparts.

v The classification maps of Res Nets in both datasets are much smoother than those of CNNs.  

v t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,是由 Laurens van der Maaten Geoffrey Hinton08年提出来。此外,t-SNE 是一种非线性降维算法,非常适用于高维数据降维到2维或者3维,进行可视化。     t-SNE是由SNE(Stochastic Neighbor Embedding, SNE; Hinton and Roweis, 2002)发展而来。


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值