关于CNN的权重共享,CNN到底学到了什么?

本文深入探讨了卷积神经网络(CNN)的学习机制,解析了filter如何从底层纹理信息到高层全局信息逐步提取特征。CNN通过权重共享减少参数,适用于模式可直接甄别且在不同区域重复出现的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CNN的fliter里的每个值都是学习出来的不是事先设定好的。
经过fliter处理后得到是特征图(feature map)
卷积减少权重参数的本质:
从图中可以看到,卷积就是全连接去掉某些权重参数的学习方式。
权重共享,不同的fliter会在某些神经元上权重共享。
到底fliter,到底CNN学到了什么?

  1. 底层的fliter学到了小块的纹理信息
  2. 高层的fliter学到了整体的信息,比如在fully connected layers中可以定向让某个神经元的值尽可能大,然后定向梯度上升得到原来的输入信息X,于是我们就可以知道每一个神经元让他兴奋度activate最高的图片是什么样子的。
    那么这便是CNN探测学习到的东西。底层局部信息,高层全局信息。

通过锁定某个神经元的值反向训练输入图片X,来探测最能让神经元兴奋的输入信息
什么时候使用CNN模型?
3. 有些模式要比整个图像小很多 可以直接甄别。
4. 相同的模式会在期盼不同的区域出现多次。
5. 当使用CNN时考虑输入信息的特性是什么,要根据CNN的特性去设计fliter。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值