论文笔记:Efficient and Accurate Approximations of Nonlinear Convolutional Networks

本文研究了如何通过分解低秩滤波器为多个较小滤波器来加速深度CNN的测试时间计算。文章提出了适用于非线性滤波器的分解方法。假设卷积滤波器在某些维度上具有低秩特性,输入x由于局部相关性也具有低秩性质。通过线性和非线性滤波器(ReLU)的分解,能够减少前向传播的计算复杂度,从而实现加速。文章还讨论了如何确定每层的分解维度以达到预期的加速比,并观察到模型准确度与所有层PCA能量乘积的负相关性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. Motivation: Decomposing low-rank filters into multiple smaller filters helps to speed up the test-time computation of deep CNNs, and previous works only propose algorithms for linear filters.

2. Approaches
Assumption: conv filters are low rank along certain dimensions; filter input x is also low rank due to local correlations. y (response) therefore has low-rank behavior.  

i. for linear filters:
a filter W can be reshaped to a vector of (k x k x c) length: y = Wx (y: d-dim vector)
rewrite y as: y = M (y - ybar) + ybar, M (d by d of rank d' < d)                                                                                           
(such M must exist, for example, M = identity matrix with 1 substituted by 0 at rows where y is 0) 
decompose M = PQ` (P and Q are d by d') and substitute into (2), we have
y = PW'x + b                                                                                                                                                    
in this case the forward complexity is reduced from O(dk^2c) to O(d'k^2c + dd') ==> nearly d'/d times


How to decompose M? ==> optimize reconstruction error:

a. by SVD; b. by PCA and choose eigenvectors contributing most energy

ii for ReLU, how to decompose M? 
relaxing reconstruction error:

when lambda -> infinity, the result will converge to original error.
solve this optimization problem by iteratively fixing zi and solving for M, b and vice versa (meanwhile, change lambda from 0.01 to 1) 

iii for the whole model: given a desired speedup ratio, how to determine the d' for each layer?
observation: the model accuracy is negatively correlated with the product of PCA energy of all layers ==> 
max this product, under the constrain that the complexity is reduced 
the author used greedy strategy to solve this optimization problem. 

3. performance 
你好!对于 "Region-Based Convolutional Networks for Accurate Object Detection and Segmentation" 这篇论文的复现,我可以给你一些指导。该论文介绍了一种基于区域的卷积神经网络方法,用于准确的物体检测和分割。 首先,你需要了解论文中提出的方法的核心思想和技术细节。然后,你可以按照论文中描述的步骤进行复现。以下是一些可能的步骤: 1. 数据集准备:根据论文中使用的数据集,你需要获取相应的训练集和测试集数据。确保数据集包含物体检测和分割的标注信息。 2. 模型架构:根据论文中描述的模型架构,你可以使用深度学习框架(如TensorFlow、PyTorch等)来构建模型。确保按照论文中提到的网络层次结构、连接方式和参数设置来构建模型。 3. 损失函数:根据论文中提到的损失函数,你可以实现相应的损失函数来衡量检测和分割任务的性能。 4. 训练过程:使用训练集数据对模型进行训练。根据论文中提到的训练策略和超参数设置,你可以使用反向传播算法来更新模型的权重。 5. 测试过程:使用测试集数据对训练好的模型进行测试。评估模型在物体检测和分割任务上的性能,并与论文中的结果进行比较。 请注意,由于论文可能没有提供完整的代码实现,你可能需要根据论文的描述进行一定的调整和优化。 希望这些步骤能为你复现该论文提供一些帮助!如果你有任何进一步的问题,欢迎继续提问。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值