用张量分解的方法压缩神经网络模型这一方向还有哪些坑可以挖呢?这是我研究生以来一直研究的问题。看了很多论文,感觉大体可以分为两条line:
(一)基于低秩近似的张量分解方法。也就是对原有的模型参数做低秩张量分解,用分解后得到的因子替换原有的大张量。这一过程后通常还需要一个fine-tune的过程。其中的难点就是怎么从大的张量中保留最有价值的参数留下来,作为一个很好的初始参数值。(二)用张量分解得到的因子重新定义新的网络结构,新的张量计算方法代替原来的卷积操作或全连接层的矩阵运算。
这一方法姑且就叫张量化网络吧,下面是该方向的论文汇总,按时间顺序排列。
- 《Tensorizing Neural Networks》(NIPS2015)
- 《Ultimate tensorization compressing convolutional and FC layers alike》(NIPS2016 workshop)
- 《Compressing recurrent neural network with tensor train 》(IJCNN2017)
- 《Tensor-Train Recurrent Neural Networks for Video Classification》(ICML2017)
- 《Learning Compact Recurrent Neural Networks with Block-Term Tensor Decomposition》(CVPR2018)
- 《Sharing Residual Units Through Collective Tensor Factorization》(IJCAI2018)
- 《Tensor Regression Networks》(2018)
- 《Tensor Regression Networks with various Low-RankTensor Approximations》(2018)
- 《Wide Compression,Tensor Ring Nets 》(CVPR2018)

本文汇总了张量化网络领域的论文,探讨如何使用张量分解压缩神经网络,涉及低秩近似、张量分解定义新网络结构等方法。研究包括Tensor Train、Block-Term、Tensor Ring等多种分解技术在全连接层、卷积层和RNN的应用,难点在于秩的选择及其对网络结构的影响。
最低0.47元/天 解锁文章
2862

被折叠的 条评论
为什么被折叠?



