卷积神经网络、ImageNet与模型拟合详解
1. 卷积神经网络(Convolutional Neural Networks)
卷积神经网络通过使用边界框隔离和丰富的特征层次结构进行多类别识别,能够更准确地重建整个场景。不过,使用多个滤波器和多层卷积层会显著增加人工神经网络的规模和计算负担。不过,借助Python的PyTorch框架和TensorFlow平台等免费的计算软件包,可以高效地完成卷积神经网络特征提取的计算。
1.1 超参数化(Hyperparameterization)
卷积神经网络可以通过调整学习率、步长、填充和池化等超参数来加速收敛,避免数据过拟合或欠拟合,还能通过调整卷积层的分辨率和尺寸来减轻计算负担。以下是一些关键超参数的介绍:
- 学习率(Learning Rate) :学习率 η 用于调整梯度下降的步长。较大的步长可以加快学习速度,但过大的步长可能会跳过最优最小值。梯度下降的过程可以通过以下公式表示:
- 当变量 wk 相对于梯度的小变化乘以学习率 η 时:$\Delta w_{k}=-\eta\frac{\partial C}{\partial w_{k}}$
- 权重迭代公式为:$w_{k}=w_{k}-\eta\frac{\partial C}{\partial w_{k}}$
- 通常通过试错法来找到最佳的梯度下降步长,以实现最优学习。
- 步长(Stride) :步长是卷积滤波器在矩阵上滑动的步长。增加步长可以减少感受野的重叠,加快对矩阵层的覆盖,同时减轻计算负担。但如果步长过大,滤波器可能会跳过或误解某些特征。
超级会员免费看
订阅专栏 解锁全文
9万+

被折叠的 条评论
为什么被折叠?



