局部相关性和权值共享

卷积神经网络利用局部相关性减少全连接层的参数量,通过选取输入节点的重要部分与输出节点连接,例如在2D图片中,重要性高的像素点通常是邻近的。权值共享进一步降低参数数量,所有输出节点共享同一权值矩阵,实现网络参数的显著减少。这种不完全连接且共享权重的方式是卷积层的基础,有效降低了计算复杂度并提高了模型效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

局部相关性和权值共享:

局部相关性:

目的:为了避免全连接网络的参数集过大的缺点。

​ 以图片为例,对于2D图片通常在进入全连接层之前将矩阵数据打平成1D向量,然后每个像素点与每个输出节点两两相连。网络层中,每个输出节点都与所有的输入节点相连,这种稠密的(Dense)连接方式使得全连接层的参数量大,计算代价高,全连接层也叫做稠密层(Dense Layer),当全连接层的激活函数为空时,全连接层也叫做线性层(Linear Layer)。
oj=σ(∑i∈nodes(I))wijxi+bj o_j = \sigma(\sum_{i \in nodes(I)})w_{ij}x_i+b_j oj=σ(inodes(I))wijxi+bj
其中nodes(I)nodes(I)nodes(I)表示III层节点集合。

其实,对于图片而言只要选出最重要的一部分输入节点,抛弃重要性较低的节点,这样输出节点只需要与重要的一部分输入节点相连接:
oj=σ(∑i∈top(I,j,k))wijxi+bj o_j = \sigma(\sum_{i \in top(I,j,k)})w_{ij}x_i+b_j oj

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

夜游神fff

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值