YOLOv3剪枝压缩99.04%参数,精度不变

本文介绍基于LearningEfficientConvolutionalNetworksThroughNetworkSlimming论文的YOLOv3模型压缩方法,通过稀疏训练、裁剪和微调流程,极限压缩YOLOv3模型至2.4M,参数减少99.04%,仍保持良好检测性能。
部署运行你感兴趣的模型镜像

基于 Learning Efficient Convolutional Networks Through Network Slimming (ICCV 2017) 论文的模型压缩。

目前有很多的开源实现,基于各种方法对YOLOv3进行裁剪和压缩,例如:

[SlimYOLOv3]

[YOLOv3-model-pruning]

[YOLOv3-complete-pruning]

等等...

数据集

收费卡口的车辆车轮数据,2266训练集,530验证集。

原理

对于一个训练好的模型,会发现部分卷积核权重很小,因此相应的激活也会很小,这部分卷积核的贡献其实是很小的,裁剪这些卷积核后再微调是可以恢复到之前的精度,这是在未作任何限制情况下,如果对权重做某些限制,如L1正则,那么训练的参数会比较稀疏,更加利于裁剪。论文给出,在BN层的Scale层其实相当于对激活的一个线性变换,那么Scale层的Gamma做一个L1

正则,会学习到比较稀疏的Gamma,这部分Gamma会导致卷积通过BN的Scale层后输出很小,这样的通道是可以裁剪掉的,这就是论文的核心思想。详细原理参考相关论文。

裁剪流程

稀疏训练->裁剪->微调

其中最关键的当属稀疏训练。

实验过程记录

MetricmAPParametersInferenceModel Size/MParameters Decrease
orignal YOLOv30.899230615291190.0170246.50
pruned0.8994935897990.00742.499.04%

可以看到,极限压缩YOLOv3的大小仅仅2.4M,参数虽然少依然可以获得良好的性能,一方面是因为我们的检测任务相对单一和简单,类别比较少,原始的YOLOv3模型庞大,能够处理更多的复杂(COCO等)的检测任务,对于简单任务是不需要那么多参数的,实际测试发现,压缩后的模型在大多数任务上依然有很好的表现,但是在极端场景下的检测相对不那么鲁棒,鱼与熊掌不可兼得。

压缩后的模型实测效果如下:

项目代码:https://github.com/midasklr/YOLO-v3-caffe

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

### YOLOv3 模型剪枝方法概述 YOLOv3 是一种高效的实时目标检测算法,其模型结构复杂且参数量较大,在实际应用中可能面临计算资源受限的情况。因此,对其进行剪枝优化是非常必要的。以下是针对 YOLOv3剪枝方法总结: #### 数据集与模型准备 为了实现有效的剪枝操作,首先需要准备好训练数据集以及预训练好的 YOLOv3 模型。这一步骤类似于其他深度学习模型的准备工作[^1]。 #### 剪枝策略的选择 对于 YOLOv3 模型而言,常见的剪枝策略包括但不限于以下几种: - **通道剪枝**:通过移除不重要的卷积核来减少模型大小和计算开销。这种方法通常基于权重的重要性度量(如 L1 范数或 Taylor 展开法)来进行裁剪决策[^2]。 - **稀疏化剪枝**:使网络中的某些权值变为零从而形成稀疏矩阵,之后可以利用专门设计的数据结构存储这些稀疏矩阵以节省内存空间并加速运算过程[^3]。 #### 执行具体的剪枝流程 一旦决定了采用哪种类型的剪枝技术,则需按照如下方式实施具体的操作步骤: 1. 对原始未修剪过的版本进行全面评估以便获取基线精度; 2. 应用选定的技术手段去除冗余部分得到精简版架构; 3. 针对该简化后的体系再次开展一轮完整的再训练或者仅做少量迭代调整即可恢复大部分损失掉的功能表现水平; #### 后续处理——Fine-Tuning 和部署 完成上述初步瘦身动作后,往往还需要经历一段时间较为细致入微地调节阶段即 fine-tuning ,目的是让新构建出来的轻量化版本尽可能接近甚至超越原有全尺寸形态下的识别能力 。最后当一切就绪之时就可以考虑将其迁移到特定硬件平台上正式投入使用了 。 ```python import torch from yolov3 import YOLOv3Model def prune_model(model, pruning_ratio=0.5): pruned_layers = [] for name, module in model.named_modules(): if isinstance(module, torch.nn.Conv2d): # Focus on Convolutional Layers weight_copy = module.weight.data.abs().clone() mask = weight_copy.gt(torch.mean(weight_copy) * pruning_ratio).float() # Create Mask module.weight.data.mul_(mask) # Apply Mask to Weights pruned_layers.append(name) return pruned_layers # Example Usage model = YOLOv3Model(pretrained=True) pruned_layers = prune_model(model) print(f"Pruned layers: {pruned_layers}") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值