yolov5 剪枝、蒸馏、压缩、量化


神经网络模型的全周期优化方式都有哪些?

考察神经网络时期重要的激活函数sigmoid和tanh,它们有一个特点,即输入值较大或者较小的时候,其导数变得很小,而在训练阶段,需要求取多个导数值,并将每层得到的导数值相乘,这样一旦层数增加,多个很小的导数值相乘,结果便趋于零,即所谓梯度消失问题[插图],

这将会导致靠近输入层的隐含层的学习效果也趋于零。而靠近输入层的隐含层参数无法学习,就意味着它的值类似随机生成,那么有具体现实意义的输入层经过这些隐含层后会被变换成无意义的信息,继续沿着神经网络往后传递一直到输出层,也就无法得出有效的结论了。所以,深度神经网络很难训练。在深度学习中,除了改进激活函数使用ReLU函数,还提出了逐层预训练等方法来解决这个问题。

在这里插入图片描述


剪枝

剪枝即剪去神经网络模型中不重要的网络连接,本章使用的剪枝方式为通道剪枝,即在训练过程中逐步将权重较小的参数置零,然后将全为0的通道剪除。剪枝有一个大前提:模型结构和参数冗余。对于MobileNet这种已经简化过的轻量级网络来说,剪枝的效果不算大。

为了使模型效果尽量接近原模型,可以在训练过程中逐步将每一

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

shiter

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值