实现更多网络剪枝:从稀疏性到几何与线性区域
1. 引言
在深度学习领域,网络剪枝和线性区域理论是两个备受关注的研究方向。网络剪枝指的是在不显著影响神经网络准确性的前提下,减少网络连接的数量。而线性区域理论则探讨神经网络所定义的线性区域数量,这一数量可能代表了网络的表达能力。
1.1 网络剪枝的现状与挑战
网络剪枝具有诸多优势,减少参数数量有助于提高模型的泛化能力。适度的剪枝通常能提升准确性,但过度剪枝会导致准确性大幅下降。目前,剪枝方法主要有两种:一是移除绝对值最小的参数;二是移除对输出影响最小的参数。此外,剪枝还会对模型的公平性产生影响,尤其是对召回率的影响。在数据集中代表性不足的类别和特征,其召回率更容易受到剪枝的影响。
1.2 线性区域理论的相关情况
线性区域理论认为,线性区域的数量代表了神经网络的表达能力,与网络对复杂数据的分类能力相关。对于具有分段线性激活函数的网络,其线性区域数量可能随网络宽度呈多项式增长,随深度呈指数增长。然而,实际训练的网络往往难以达到理论上的线性区域数量。
1.3 本文的研究方向
本文提出将网络剪枝和线性区域理论相结合,利用线性区域理论指导网络剪枝。具体而言,研究网络剪枝如何影响线性区域的数量,并提出相应的理论和方法。
2. 符号表示
为便于研究,本文做了一些假设。假设研究的是全连接前馈网络,每个神经元采用 ReLU 激活函数,即整流网络。网络输入为 $x = [x_1 x_2 … x_{n_0}]^T$,输出为 $y = [y_1 y_2 … y_m]^T$,每个隐藏层 $l$ 的输出为 $h^l = [h^l
超级会员免费看
订阅专栏 解锁全文
932

被折叠的 条评论
为什么被折叠?



