论文地址:ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression
本文地址:http://blog.youkuaiyun.com/wspba/article/details/77427960
前言
近两年来,有关模型压缩的论文越来越多,人们不再一昧的只追求强大的性能,而是开始慢慢的将模型的大小、运算量以及效率考虑进来,人们做的越来越多的是,在性能可接受的范围内,模型越小越好。这也说明了一点,深度学习模型已经开始被广泛的运用在了平常的生活当中,可以理解为现在的手机和以前的大哥大之间的关系。今天分享的一篇文章是今年ICCV的一篇入选论文,是南京大学的作品:ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression,所提出的一种与以往方式不同的模型裁剪方案。