深度模型压缩
Charles5101
USTC
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
计算模型FLOPs和参数量(计算工具)
在pytorch环境下,有两个计算FLOPs和参数量的包thop和ptflops,结果基本是一致的。 thop 参考https://github.com/Lyken17/pytorch-OpCounter 安装方法:pip install thop 使用方法: from torchvision.models import resnet18 from thop import profile model = resnet18() input = torch.randn(1, 3, 224, 224)转载 2020-08-08 16:31:11 · 4849 阅读 · 0 评论 -
Rethinking the Value of Network Pruning_ICLR2019
近期本小白在公司实习,组内有写paper reading的优良传统,一来自己总结,二来便于大家交流。感觉这个习惯非常好,于是乎想了想干脆同步发到自己博客上来,便于以后自己整理。 URL:https://arxiv.org/abs/1810.05270 code:https://github.com/Eric-mingjie/rethinking-network-pruning TL;...原创 2019-05-26 23:04:47 · 1065 阅读 · 0 评论 -
RePr: Improved Training of Convolutional Filters_CVPR2019
URL:https://arxiv.org/abs/1811.07275 TL;DR 卷积产生的特征中存在不必要的重叠导致网络冗余,因此现有的模型修剪方法可以修剪掉大量的卷积滤波器而几乎不影响模型的准确率。因此,作者认为这是传统训练方法不够完善导致的,于是提出了一种新的模型训练方法。 Method 这篇论文的两个贡献: 1)作者提出一种新的训练流程: 首先经过一定数量迭代的标准训练...原创 2019-05-30 21:12:07 · 574 阅读 · 0 评论 -
Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration_CVPR19
CVPR2019 oral URL:http://openaccess.thecvf.com/content_CVPR_2019/html/He_Filter_Pruning_via_Geometric_Median_for_Deep_Convolutional_Neural_Networks_CVPR_2019_paper.html TL;DR 这篇文章提出了一种基于几何中位数的卷积核修...原创 2019-07-08 00:37:38 · 1248 阅读 · 1 评论 -
A Main/Subsidiary Network Framework for Simplifying Binary Neural Networks_CVPR19
URL:http://openaccess.thecvf.com/content_CVPR_2019/html/Xu_A_MainSubsidiary_Network_Framework_for_Simplifying_Binary_Neural_Networks_CVPR_2019_paper.html TL;DR 这篇论文提出了一种对二值化网络进行修剪的剪枝方法,将量化和剪枝这两个模型压...原创 2019-07-08 00:40:07 · 394 阅读 · 0 评论 -
ENAS: 更有效地设计神经网络模型(AutoML)
URL:https://zhuanlan.zhihu.com/p/35339663转载 2019-06-28 19:36:32 · 572 阅读 · 0 评论
分享