论文笔记001-Stacked Convolutional Auto-Encoders for Hierarchical Feature Extraction

本文介绍了《Stacked Convolutional Auto-Encoders for Hierarchical Feature Extraction》论文,探讨了如何在卷积神经网络中用Denoise Autoencoder替代池化层,构成CAE结构,并通过无监督学习预训练和BP算法微调提升性能。实验表明,这种结构在泛化性和鲁棒性上表现出色。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文笔记 之 卷积自编码网络

  突然发现好记性不如烂笔头真的很有道理,到了写毕业论文的时候,发现之前看过的论文都貌似没看过。今天写一下关于《Stacked Convolutional Auto-Encoders for Hierarchical Feature Extraction》的笔记,后期慢慢将以前比较好的论文补上来,希望对我对大家都有收获。
  论文可以自己搜,懒得搜的可以去优快云免费下载

网络结构

  进入正题,这篇论文写的是在卷积神经网络的卷积层加入Denoise Autoencoder代替,池化层则采用Max pooling。这样2层就构成一个CAE结构,将多个CAE串起来,就构成了含有深度结构的CAEs。CAEs先使用无监督逐层训练方法预训练,然后采用BP算法进行微调,也就是使用不带规则化的梯度下降算法, 根据作者所做的实验来看,结果比较好。不知道描述的清楚与否,作者也没有给出网络结构图。

学习算法

  卷积层-卷积:初始化k个卷积核(W),每个卷积核搭配一个偏置b,与输入x卷积( )后生成k个特征图h,激活函数 σ tanh 。公式如下:
   hk=σ(xWk+bk)(1)
  卷积层-自编码:每张特征图h与其对应的卷积核的转置( W

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值