cnn的基本结构(应用于图像)

cnn的基本结构(应用于图像)

本文参考百度飞桨讲解ppt,进行总结

卷积层+激活函数+池化层+全连接层**

卷积:提取特征

卷积核的个数 = 下一层数据的深度 = 下一卷积层卷积核的深度
卷积核的个数 = 提取特征的数量 ,超参数,可以自己调节
Stride:一次滑动的步长
在这里插入图片描述

padding 填充

Padding = valid不进行补零操作,s=1时,每卷积一次,宽和高方向的数据维度下降F-1,其中F为卷积核大小
Padding = same在输入的周围进行0或复制填充卷积前width=卷积后width,卷积前height=卷积后height
F =3,stride =1,pad = 1

在这里插入图片描述

池化层

在这里插入图片描述

激活函数

激活函数

全连接层:将多层的特征映射抻直成一个一维的向量

模型的泛化

如何提高学习算法效果?

  1. 降低训练误差

训练误差高:欠拟合,表现:训练集和测试集上精确度都低。实质:模型的表示能力不够。

  1. 缩小训练误差和测试误差的差距
    训练误差和测试误差间差距大:过拟合,表现:训练集精确度高,测试集精确度低。
    实质:模型模拟训练数据独有的噪声
    1)高模型容量——高拟合各种函数的能力,模型偏向于过拟合。
    2)正则化——对学习算法的修改,为了减少测试误差(泛化误差)而不是训练误差。
    正则化

  2. Early-stopping(早停法):

检测训练集和验证集上的精确度,训练集的精确度上升but验证集上的精确度下降则停止训练

  1. 权重正则化:

噪声相比于正常信号而言,通常会在某些点出现较大的峰值,保证权重系数在绝对值意义上小,能够保证噪声不会被过度响应,模型不应过于复杂。

  1. L1正则:
    代表损失函数,代表参数向量w的范数
  2. L2正则(weight decay):

代表损失函数,代表参数向量w的范数将损失函数改写成上述方式,在最小化损失函数的过程中就会限制权重w不会过大。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值