自己使用过得模型压缩方法

最近有朋友问我做过的L1剪枝方法怎么样,有没有资源;

因为这个是公司的事情,我也不能直接给资源,但是我还是将我使用过得压缩方法总结一下。

(还是由于自己忘性大,留给自己回忆):

1)L1剪枝方法:

查看如下资源,https://github.com/NervanaSystems/distiller

2)蒸馏:

查看论文:

《Mimicking Very Efficient Network for Objection》

(实现后效果很好用,在yolo上,没有精度损失)

《A Gift from Knowledge Distillation: Fast Optimization,Network Minimization and Transfer Learning》

(我实现的算法效果很差)

《Distillation the Knowledge in Neural Network》

(我的启蒙文章)

3)yolo的剪枝方法:

查看论文:《Object detection at 200 Frames Per Second》

(yolo上的压缩后效果没有文章《Mimicking Very Efficient Network for Objection》压的好)

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

猫猫与橙子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值