11.人工智能原理-卷积神经网络:图像识别实战

文章介绍了卷积运算在神经网络中的应用,特别是卷积层的概念,强调了参数共享如何降低模型复杂性。通过LeNet-5网络的例子,解释了卷积层和池化层的作用,以及在编程实验中如何实现这些概念。实验结果显示,卷积神经网络在图像识别任务上表现出高准确率且参数数量相对较少。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

       一、卷积运算

       二、池化层

       三、编程实验

       四、总结

       五、往期内容


一、卷积运算

       上节课我们已经了解到卷积操作是怎么一回事,那接下来我们就看看如何把卷积运算融入到我们的神经网络之中。我们还是以上节的“5”为例:

       这是一张8*8的灰度图,用一个3*3的卷积核对它进行卷积,输出一个6*6的结果,我们把这个做卷积运算的一层称为卷积层。卷完以后我们把结果拆成一个数组,送入到后面的全连接层神经网络中。

       那么问题来了,卷积核中的各个值是多少呢?实际上,我们不必管它,随机初始化这些值就好,卷积核的值也是通过训练学习来的,通过训练找到合适的卷积核去提取不同的特征。

💡那么如何卷积核反向传播调整参数呢?

       minst数据集是10分类的问题,所以输出层有10个神元。

       卷积的过程:卷积核依次和这些小图(局部数据)对应元素相乘再相加得到一个值,可以类比之前讲的普通神经元。神经元的线性函数再加一个偏置项B,然后通过激活函数进行非线性运算,这才是卷积层的最终输出。

https://i-blog.csdnimg.cn/blog_migrate/39effa75db77f353f7c6410817285a8c.png#pic_center

       这样我们就把一个卷积层拆成了4个普通的神经元,我们就可以像之前在普通神经元中那样,很轻松地继续把误差代价反向传播下去。

注意以下几个细节:

1.首先这四个神经元的输出是根据卷积的过程排列而成的二维的结构,所以我们在送入全连接层时需要手动进行平铺

2.然后这四个神经元的输入并不相同,实际上是同一个图片的不同区域

3.最后这四个神经元的权值参数并不是独立的,它们都来自同一个卷积核,所以实际上它们的权值参数(包括偏置项b)是一样的,我们只是把一个东西强行拆开平铺成4个。也就是说这四个神经元复用了同一套权重参数,这就是所谓的

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值