深度残差收缩网络 Deep Residual Shrinkage Networks

本文介绍深度残差收缩网络(DRSN),一种改进的ResNet,通过软阈值化处理特征信息,有效去除噪声,提高特征提取效果。实验表明,DSNR-CW在多种噪声环境下表现最优。

自从2015年ResNet出现以来,残差模块和类似的思想几乎应用于深度学习的各个领域。当然也出现各种改进的版本,残差收缩网络就是其中一种。

标准的残差模块主要有以下三种,因为这篇论文是在一维的信号数据上做实验,所以没有H的维度,或者说H的维度大小为1。

在这里插入图片描述
上图中(a)(a)(a)是输入和输出特征图的Width和Channel大小不变的情况;图(b)(b)(b)是输出特征的Width大小是输入特征一半的情况;图(c)(c)(c)是输出特征的Width是输入特征的一半,Channel是输入特征的两倍。

这些模块堆叠起来,再和其他的卷积和FC等操作层结合,就构成一个基本的分类ResNet网络。

在这里插入图片描述

残差收缩网络提出的主要原因是:输入的数据往往包含一些不必要的噪声,这些噪声会影响卷积网络的特征提取和性能结果。噪声在残差网络中特征信息幅值通常比较小,在0的附近,所以在残差收缩网络中提出了一种软阈值化的思想,将特征值在0附近一定范围的值设成0,将大于该范围的值重新收缩到0附近。

软阈值公式如下所示:
f(x)={ x−τx>τ0−τ≤x≤τx+τx<−τ f(x) = \left\{ \begin{array}{lr} x - \tau & x > \tau\\ 0 & -\tau \le x \le \tau\\ x + \tau & x < -\tau \end{array} \right. f(x)=

评论 5
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值