【机器学习】卷积层,池化层,全连接层,BN层作用;CNN 网络参数数量的计算

本文深入探讨卷积层、池化层、全连接层和BN层在卷积神经网络中的作用。卷积层作为特征提取器,提供位置信息并减少参数;池化层用于特征提取和防止过拟合;全连接层作为分类器,利用全局平均池化减少参数;BN层加速训练,缓解梯度问题。此外,文章还介绍了CNN网络参数数量的计算方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

官方文档:https://keras.io/layers/convolutional/#zeropadding2d
https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html VGG16架构

https://www.cnblogs.com/ymjyqsx/p/9451739.html

【搬运】conv卷积层
1.相当于一个特征提取器(特征增强,消除噪声)
2.提供了位置信息
3.减少了参数个数

https://blog.youkuaiyun.com/m0_37622530/article/details/82230368
https://www.cnblogs.com/ymjyqsx/p/9451739.html

【搬运】pooling池化层
1.提取特征(减少之前的特征维数) 2.减少训练参数
3.进而防止过拟合(泛化能力加强)。 激活函数:增加网络的非线性表达能力。

1 过滤越来越多的卷积层,提取越来越高级的特征
2 Max pooling和Global Average Pooling用来只保留这些特征中最强的,保证特征的位置与旋转不变性,减少模型参数数量,减少过拟合问题

————————————————————————————
https://blog.youkuaiyun.com/qq_39521554/article/details/81385159
【半搬运】对全连接层fully connected layer)的通俗理解:
全连接层(fully connected layers,FC)(通过矩阵向量乘积)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则对前面的特征(通过“全局平均值global average pooling”的方法减少全连接的参数)做加权和,将学到的“分布式特征表示”(高度提纯的特征)映射到样本标记空间。

https://blog.youkuaiyun.com/wangyuxi__/article/det

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值