卷积神经网络总结

本文是对卷积神经网络(CNN)的总结,包括其为何使用的原因:参数少,能有效提取数据特征。介绍了卷积的概念,以及CNN的结构:卷积层、汇聚层(池化层)和全连接层。还探讨了LeNet-5、AlexNet和Inception等主要的CNN模型。最后,简述了卷积核大小对网络性能的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习系列~卷积神经网络

漫谈

毕业设计顺利结束,这三个月以来每天都有事做的感觉真的很好,能够专注的去读论文、写代码、写论文,并且毕设期间确实学到了很多东西,尤其是大学四年很少涉及的算法,这几个月通过不断地学习与编码实践,感觉自己的算法能力稍稍提高了些,也对自己未来研究生阶段的学习增添了信心吧。

福利

后台回复"机器学习"可获得电子版西瓜书等资源,回复"深度学习"可获得花书等资源。

简介

本篇文章主要是对毕业设计中涉及的深度学习算法——卷及神经网络,进行简单的描述和总结,其中涉及的详细的数学推导可以参考南瓜书中的内容。本篇不做详细阐述。

什么是卷积神经网络?

这样的问题,Google一下会出现各种各样的答案,阅读之后会发现,大家讲的都比较深奥而又不易理解,对于卷积神经网络,我的理解是:

  1. 首先,他是一个网络结构的多层模型。
  2. 其次,层与层之间的连接是通过数学运算——卷积,来维持的。

通俗来讲,可以把卷积神经网络看做一个加工机器,我们把实验数据作为原材料,然后将原材料喂给加工机器,加工机器经过卷积运算也就是材料加工过程,得到成品即分类预测的结果。


为什么要选择使用卷积神经网络?

第一:参数少

在上一个问题中,已将把卷积神经网络理解为加工机器,这个比喻也恰恰回答了这个问题。在普通的神经网络中,层与层之间都要做相应的运算,我们以两层网络(每层5个神经元)为例:

神经元1 神经元2 神经元3 神经元4 神经元5
神经元6 神经元7 神经元8 神经元9 神经元10

那么在上表中,每一个神经元都要跟下层的所有神经元进行运算,故需要运算参数5*5=25次,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值