卷积网络中的可学习参数有哪些?

本文详细解析了深度学习网络中卷积层、池化层及全连接层的参数计算方式,通过具体实例展示了如何确定各层参数数量,并提供了PyTorch代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(1)卷积层
卷积层的参数就是卷积核的总数加上偏置数,例如一个14* 14* 6 (6为通道数)的特征图,经过5* 5* 16的卷积核,那么这层的参数为5* 5* 16* 6+16=2416个参数(注意要乘上一层的通道数)。
(2)池化层
池化层很有意思的特点就是,它有一组超参数,但并没有参数需要学习。实际上,梯度下降没有什么可学的,一旦确定了kernel的stride,它就是一个固定运算,梯度下降无需改变任何值。
(3)全连接层
全连接也有偏置的,例如一个5* 5* 16 (16是通道数)的特征图后面接一个120个节点的全连接层,那么这层全连接层的参数总共为5* 5* 16*120+120 =48120个参数。

附上pytorch打印出来的参数值:
在这里插入图片描述

params = list(net.parameters())
print(len(params))
for i in range(10):
    print(params[i].size())

输出:
10

torch.Size([6, 1, 5, 5])
torch.Size([6])
torch.Size([16, 6, 5, 5])
torch.Size([16])
torch.Size([120, 400])
torch.Size([120])
torch.Size([84, 120])
torch.Size([84])
torch.Size([10, 84])
torch.Size([10])

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值