深度学习杂记

本文深入探讨了深度学习中的并行结构,包括数据并行和模型并行的区别,以及AlexNet的模型并行特性。讨论了ReLU激活函数相对于Sigmoid的优势,特别是解决了梯度消失问题。介绍了神经网络调参策略,包括调整训练轮数、优化器、学习率等,以及使用正则化方法避免过拟合。解释了批归一化的原理和应用,以及如何通过设置检查点保存和恢复模型状态。最后,提到了消融研究在深度学习中的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

**1、**深度学习中,并行结构分为数据并行和模型并行。AlexNet属于模型并行。
数据并行是指在不同的GPU上,模型结构相同,但将训练数据进行切分。分别训练得到不同的模型,然后再将模型进行融合。
模型并行指的是将若干层的模型参数进行切分,不同的GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。

**2、**ReLU与Sigmoid相比,其优势在于训练速度更快,因为Sigmoid的导数在饱和区变得非常小,导致权重几乎没有得到更新,即所谓的梯度消失问题。

**3、**神经网络调参方式,以得到更高的性能:
1)调整训练轮数(超参数)
2)测不同的优化器以选择性能最优的
3)控制优化器的学习率(超参数)
4)调整批处理的大小(超参数)
5)对于可能出现的过拟合,可以采用相应的正则化方法避免(L1,L2,L1和L2—弹性网络正则,dropout)。其中:
L1正则化(也称lasso):模型复杂度表示为权重的绝对值之和
L2正则化(也称ridge):模型复杂度表示为权重的平方和
弹性网络正则化:模型复杂度通过联合L1和L2正则化进行表示

这些正则化可以作用于权重,偏置,输出层,全连接层(如dropout)上。

6)改进网络结构(超参数)
7)批归一化(BN):可以加速学习并获得更高准确率的方法,还可以减少初始化不良的问题。它是一种将每个单元的输入归一化为零均值和单位方差,来帮助稳定学习的技术。

超参数就是需要人为设定的一些网络参数,而通过网络自我更新的称之为参数,如网络权重参数。

**4、**模型复杂度恶意表示成非零权重的数量。我们可以使用超参数λ(大于等于0)来控制拥有简单模型的重要性:
min:{loss + λ * complexity(模型)}

**5、**检查点
设置检查点就是在一个规定的时间间隔里保存程序状态的快照过程,以便在出现失败的情况下可以把程序恢复到最后一次保存时的状态。
深度学习在任何时间点的状态就是指模型在那个时间点的权重。
检查点的应用场景包括:
1)训练时发生意外,比如机器突然断电
2)自己为了某个目的项停止训练,也许为了用测试数据测试模型,然后从上一个检查点继续训练过程
3)想在多轮训练过程中保存最佳版本(只有当前版本比之前的好才会保存一个检查点)

**6、**当性能已经不能再继续优化时(模型已经收敛,但训练还未结束),可以使用编程语言中相应的方法以提前终止训练过程。

**7、**消融研究
所谓相融研究,其实和我们常说的控制变量法相似。在深度学习中,有时候并不知道为什么这样搭建的模型就能取得很好的性能,但想知道具体是哪个部分起了比较大的作用,这时候就可以进行相融实验(相融研究,一个意思)。

相融研究的科学解释是:
基于消融的生理心理学的基本研究方法,特别是在20世纪前四分之三期间,其中通过检查其手术切除的行为影响来尝试确定神经系统的特定区域的功能。它于1824年由法国生理学家Marie Jean Pierre Flourens(1794-1867)开创,也被称为病变实验。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值