卷积神经网络(CNN)学习笔记

本文记录了作者在实现卷积神经网络(CNN)过程中遇到的梯度消失问题及解决方案。通过减少层数、增大学习率和使用ReLU激活函数,有效缓解了梯度消失。此外,讨论了非线性映射的位置、权重衰减、随机梯度下降参数选择和网络改进策略,揭示了CNN训练的细节与技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

起因


从去年开始接触神经网络,觉得CNN结构很简单没什么难的,直到有一天被一位拿过信息竞赛金牌的学弟鄙视了……中期答辩之后不忙,于是我花了几天用MATLAB写了一个CNN,算是给自己一个交代。


为什么用MATLAB?

  1. 相比c/c++,MATLAB实现更方便
  2. 我没打算写又快又漂亮的产品级的代码,只是希望抠一遍算法的各种细节,所以theano等各种成熟的工具包就不考虑了

实现


这篇文章不打算讲各种基础的细节,只是总结一下我踩的各种坑……

CNN训练无非是反向传播,现成的公式很容易找到,自己花一些时间也能推导出来。我参照的是这篇文章:

评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值