深度学习中的卷积神经网络与循环神经网络技术解析
1. 预训练与迁移学习
预训练是一种强大的技术,它利用无监督学习方法对模型进行训练,无需标注数据。大量未标注数据比标注数据更容易获取。通过在未标注数据上进行预训练,可以让模型学会检测有用特征,而无需承担获取大量标注数据集的成本。预训练后的模型可用于构建最终模型,该最终模型使用较小的标注数据集进行训练。
迁移学习则是利用预训练模型构建一个针对不同用例进一步训练的模型。
2. CNN和池化的反向传播
在使用深度学习框架时,虽无需担心反向传播算法在卷积层的具体工作方式,但了解它仍有意义。若直接使用该算法,可能会破坏通道中所有神经元具有相同权重这一不变性。为确保这一不变性,可先让通道中的所有神经元在初始化时获得相同值,然后对所有应相同的权重应用相同的更新。
权重的更新值是损失函数关于该权重的偏导数。卷积网络与全连接网络的关键区别在于,在卷积网络的整体方程(包括损失函数)中,卷积层的每个权重会多次出现,而全连接网络中每个权重仅出现一次。因此,关于某个权重的偏导数是该权重在方程中每个实例的偏导数之和。
使用反向传播算法计算更新值与全连接网络类似,都要进行前向和反向传播。不同之处在于权重更新方式,卷积层需将共享权重所有实例的更新值之和用于更新该权重,并将此更新值应用于网络中该权重的所有副本。实际上,高效的卷积层实现不会存储所有权重的多个副本,而是共享权重,更新时只需更新一个副本。
对于最大池化层,由于最大操作不可微,只需将误差反向传播到提供最大值输入的神经元,因为其他输入显然不影响误差。
3. 数据增强作为正则化技术
为
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



