
深度模型压缩
Charles5101
USTC
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
计算模型FLOPs和参数量(计算工具)
在pytorch环境下,有两个计算FLOPs和参数量的包thop和ptflops,结果基本是一致的。thop参考https://github.com/Lyken17/pytorch-OpCounter安装方法:pip install thop使用方法:from torchvision.models import resnet18from thop import profilemodel = resnet18()input = torch.randn(1, 3, 224, 224)转载 2020-08-08 16:31:11 · 4652 阅读 · 0 评论 -
Rethinking the Value of Network Pruning_ICLR2019
近期本小白在公司实习,组内有写paper reading的优良传统,一来自己总结,二来便于大家交流。感觉这个习惯非常好,于是乎想了想干脆同步发到自己博客上来,便于以后自己整理。URL:https://arxiv.org/abs/1810.05270code:https://github.com/Eric-mingjie/rethinking-network-pruningTL;...原创 2019-05-26 23:04:47 · 1037 阅读 · 0 评论 -
RePr: Improved Training of Convolutional Filters_CVPR2019
URL:https://arxiv.org/abs/1811.07275TL;DR卷积产生的特征中存在不必要的重叠导致网络冗余,因此现有的模型修剪方法可以修剪掉大量的卷积滤波器而几乎不影响模型的准确率。因此,作者认为这是传统训练方法不够完善导致的,于是提出了一种新的模型训练方法。Method这篇论文的两个贡献:1)作者提出一种新的训练流程:首先经过一定数量迭代的标准训练...原创 2019-05-30 21:12:07 · 552 阅读 · 0 评论 -
Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration_CVPR19
CVPR2019 oralURL:http://openaccess.thecvf.com/content_CVPR_2019/html/He_Filter_Pruning_via_Geometric_Median_for_Deep_Convolutional_Neural_Networks_CVPR_2019_paper.htmlTL;DR这篇文章提出了一种基于几何中位数的卷积核修...原创 2019-07-08 00:37:38 · 1227 阅读 · 1 评论 -
A Main/Subsidiary Network Framework for Simplifying Binary Neural Networks_CVPR19
URL:http://openaccess.thecvf.com/content_CVPR_2019/html/Xu_A_MainSubsidiary_Network_Framework_for_Simplifying_Binary_Neural_Networks_CVPR_2019_paper.htmlTL;DR这篇论文提出了一种对二值化网络进行修剪的剪枝方法,将量化和剪枝这两个模型压...原创 2019-07-08 00:40:07 · 374 阅读 · 0 评论 -
ENAS: 更有效地设计神经网络模型(AutoML)
URL:https://zhuanlan.zhihu.com/p/35339663转载 2019-06-28 19:36:32 · 550 阅读 · 0 评论