Deep Compression/Acceleration(模型压缩加速总结)

本文总结了模型压缩的研究,分为结构优化、量化、剪枝、稀疏、融合和蒸馏等多个方向,涉及MobileNetV3、IGCV系列、Binarized Neural Networks、DoReFa-Net等著名模型和技术,旨在实现深度神经网络的高效运行。

模型压缩论文目录

根据个人理解将模型压缩方面研究分为以下七个方向:

结构structure

[CVPR2019] Searching for MobileNetV3

[BMVC2018] IGCV3: Interleaved Low-Rank Group Convolutions for Efficient Deep Neural Networks

[CVPR2018] IGCV2: Interleaved Structured Sparse Convolutional Neural Networks

[CVPR2018] MobileNetV2: Inverted Residuals and Linear Bottlenecks

[ECCV2018] ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design

量化quantization

Binarized Neural Networks: Training Deep Neural Networks with Weights and Activations Constrained to +1 or -1

[ACM2017] FINN: A Framework for Fast, Scalable Binarized Neural Network Inference

[CVPR2016] DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients

评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值