最近,博主有一个需求,需要将模型部署到一个边缘设备,此时,便遇到了一个问题,YOLO模型太大,无法部署,此时,我们除了采用量化的操作以外,就需要使用剪枝操作了。
相关介绍
剪枝(Pruning
)是一种模型压缩技术,旨在通过移除神经网络中不重要的权重或神经元来减少模型的大小和计算复杂度,同时尽量保持模型的性能。
其步骤如下:
1. 训练基础模型
在开始剪枝之前,首先需要训练一个基础模型,这个模型将作为后续剪枝操作的基础。
设计并初始化你的深度学习模型。
使用标准的训练过程训练模型至收敛或达到满意的性能指标。
2. 确定剪枝策略
选择合适的剪枝策略对于成功实施剪枝至关重要。常见的剪枝策略包括但不限于:
非结构化剪枝(Unstructured Pruning):基于权重值的大小进行剪枝,通常去除那些绝对值较小的权重。
结构化剪枝(Structured Pruning):剪除整个通道、滤波器或者层,这有助于保持计算效率,特别是在硬件实现上。
全局剪枝 vs 局部剪枝:全局剪枝考虑整个模型中的所有权重,并根据设定的阈值一次性修剪;局部剪枝则是针对每个层单独设定剪枝比例。
3. 权重重要性评估
确定哪些权重或神经元可以被安全地移除。常用的评估方法包括:
权重幅度:直接依据权重的绝对值大小决定是否剪枝。
第二导数/梯度信息:考虑参数对损失函数影响的重要性。
神经元输出方差:衡量特定神经元在整个训练集上的激活程度。
4. 实施剪枝
根据选定的标准和策略执行剪枝操作。
非结构化剪枝:可以直接设置某些权重为零。
结构化剪枝:可能涉及到修改网络架构,如删除卷积核或全连接层的部分神经元。
5. 微调(Fine-tuning)
剪枝后,模型可能会出现性能下降的情况,因此需要对剪枝后的模型进行微调以恢复其准确性。
步骤:
使用原始数据集对剪枝后的模型进行再训练。
可能需要调整学习率等超参数以适应新的模型结构。
6. 验证与迭代
检查剪枝后的模型在验证集上的表现,确保它仍然满足应用需求。如果性能未能达到预期,则可能需要调整剪枝策略或增加微调的时间,并重复上述步骤。
那么接下来进入实操:
约束训练
约束训练是为了筛选哪些channel
比较重要,哪些channel
没有那么重要,约束训练可以使得模型更易于剪枝。在约束训练中,模型会学习到一些通道或者权重系数比较不重要的信息,而这些信息在剪枝过程中得到应用,从而达到模型压缩的效果。而如果直接进行剪枝操作,可能会出现一些问题,比如剪枝后的模型精度大幅下降、剪枝不均匀等。因此,在进行剪枝操作之前,通过稀疏训练的方式,可以更好地准确地确定哪些通道或者权重系数可以被剪掉,从而避免上述问题的发生。
首先,在ultralytics/yolo/engine/trainer.py
添加如下代码
L1
正则化增强了 BatchNorm2d
层的稀疏性,并通过动态调整正则化强度实现了更好的训练效果,用于模型压缩,防止过拟合。
然后重新训练模型,注意,要加上 amp=False
参数,表示禁用自动混合精度,所有计算使用 FP32
。同理,amp=True
表示启用自动混合精度,部分计算使用 FP16
,从而加速训练并减少显存占用。当然,这其实是方便我们后续的模型剪枝操作。
原效果:
采用约束训练后效果:
剪枝
在剪枝时,我们选择加载last.pt
而非best.pt
,因为由于迁移学习,模型的泛化性比较好,在第一个epoch
时mAP
值最大,但这并不是真实的,我们需要稳定下来的一个模型进行prune
使用https://netron.app/
查看一下模型结构:发现里面出现了这种不规则的单数结构,这就说明我们的剪枝成功了。
回调训练
首先,把之前在trainer.py
中加的代码注释掉,然后依旧在yolo/engine/trainer.py
代码中的def setup_model
方法中添加如下内容
修改完成后,开启回调训练:
原始结果:
剪枝后结果:
可以看到,这种剪枝后的精度下降还是较为明显的,不够对于我的任务足够了
至此,我们的模型剪枝操作便完成了。