【剪枝】torch-pruning的基本使用

Torch-Pruning:结构化剪枝与DepGraph在深度学习中的实践
文章介绍了Torch-Pruning库,一种用于结构化剪枝的PyTorch工具,通过DepGraph处理层间依赖。它允许用户方便地进行任意结构的剪枝,包括对ResNet和DenseNet等模型的卷积层、BN层的通道剪枝。文章还展示了使用Torch-Pruning进行网络剪枝的步骤和常见策略。

论文:DepGraph: Towards Any Structural Pruning
工程:https://github.com/VainF/Torch-Pruning
算法和库的使用介绍:CVPR 2023 | DepGraph 通用结构化剪枝

1 TP的简介

该算法介绍了DepGraph 如何建模结构化剪枝中的层依赖,实现任意结构的剪枝。对应实现的库为 torch-pruning。
本篇博客对作者的介绍做一个自己的梳理和记录。

  • Torch-Pruning的简单介绍
    Torch-Pruning(TP)是一个结构化剪枝库,与现有框架(例如torch.nn.utils.prune)最大的区别在于,TP会物理地移除参数,同时自动裁剪其他依赖层。TP是一个纯 PyTorch 项目,实现了内置的计算图的追踪(Tracing)、依赖图(DepenednecyGraph, 见论文)、剪枝器等功能,同时支持 PyTorch 1.x 和 2.0 版本。
  • 用 Torch-Pruning 剪枝的好处
    假设正在对一个卷积结构化剪枝,需要减去哪些内容,具体第几个卷积核、对应的偏置、BN中对应的维度、与其直接或间接相连的层的核的channel。我们要实现剪枝,需要对不同模型定制不同的代码实现。Torch-Pruning可让实现者跳脱出对层剪枝时最具体的操作,而关注于整体剪枝的设置。

2 TP的初尝试


2.1 初步尝试

以 ResNet-18 结构化剪枝为例,对【conv1】进行剪枝,同时处理对应的bn、紧临的卷积。

from torchvision.models import resnet18
import torch_pruning as tp
import torch

model = resnet18(pretrained=True).eval()
tp.prune_conv_out_channels(model.conv1, idxs=[0,1]) # 剪枝前两个通道
tp.prune_batchnorm_out_channels(model.bn1, idxs=[0,1]) # 尝试修复bn
tp.prune_conv_in_channels(model.layer1[0].conv1, idxs=[0,1]) # 尝试修复紧邻的conv
output = model(torch.randn(1,3,224,224)) # 尝试运行剪枝后的网络

会报错如下:问题出在残差结构上。残差的相加操作要求传入的两个tensor具有相同的空间尺寸,也就意味着剪枝后的Tensor通道数62和另一个tensor的通道数64不再匹配。
在这里插入图片描述在这里插入图片描述


2.2 使用TP对 conv1进行剪枝

手动设置DependencyGraph是Torch-Pruning框架的底层算法,设计目标就是"自动寻找耦合层",并自动化处理。
使用TP对ResNet-18的conv1进行剪枝,代码如下:

import torch
from torchvision.models import resnet18
import torch_pruning as tp

model = resnet18(pretrained=True).eval()

# 1. 构建依赖图
DG = tp.DependencyGraph()
DG.build_dependency(model, example_inputs=torch.randn(1,3,224,224))

# 2. 获取与model.conv1存在依赖的所有层,并指定需要剪枝的通道索引(此处我们剪枝第[2,6,9]个通道)
group = DG.get_pruning_group( model.conv1, tp.prune_conv_out_channels, idxs=[2, 6, 9] )
print(model, group)

# 3. 执行剪枝操作
if DG.check_pruning_group(group): # 避免将通道剪枝到0
    group.prune()
print(model, group)
output = model(torch.randn(1,3,224,224)) # 尝试运行剪枝后的网络

上述过程一共三步:

  • 1 对网络进行依赖图构建;
  • 2 选取需要剪枝的层,指定剪枝通道,获得分组group;这里的group,是所有与conv1相依赖的层。
  • 3 执行剪枝操作,按组移除通道。那剪枝过程具体操作了哪些层呢?

左图为剪枝前的conv1 的group,右图为剪枝后的conv1 的group。
怎么去看这个group呢,在下图右侧进行了简单的标注,可以发现conv1的group都会进行剪枝,从而适应conv1的卷积核的维度发生的变化
在这里插入图片描述
左图为剪枝前的resnet结构部分,右图为剪枝后的resnet结构部分。
在这里插入图片描述


2.3 使用TP对网络中每个层进行剪枝

在实际实现时,我们希望是对整个网络结构进行剪枝,而非特定的某几层,这就涉及到如何不重复地遍历网络中所有分组的问题。
DepGraph提供了接口DG.get_all_groups来实现这以目标。该接口仅实现层的分组,并不会分辨通道的重要性。该接口包含两个参数

  • ignored_layers:指定忽略 某些希望被剪枝的层。通常包括最后的分类层、以及报错的层(也可以使用其它正确的层进行替换)
  • root_module_types:指定了每个组的起始层的类型。比如想剪枝所有的卷基层,而不想剪枝全连接层,只需要只传入对应的卷积类即可。
    值得注意的是,不同层可能出现在同一分组中,Depgraph会自动去除重复分组。

下面先提前设定好需要剪枝的通道,来展示DG.get_all_groups的使用:

import torch
import torch.nn as nn
import torch_pruning as tp
from torchvision.models import resnet18

model = resnet18(pretrained=True).eval()

# 1. 构建依赖图
DG = tp.DependencyGraph()
DG.build_dependency(model, example_inputs=torch.randn(1,3,224,224))

# 2. 获取与model.conv1存在依赖的所有层,并指定需要剪枝的通道索引(此处我们剪枝第[2,6,9]个通道)
Groups = DG.get_all_groups(ignored_layers=[model.conv1], root_module_types=[nn.Conv2d, nn.Linear])

# 3. 执行剪枝操作
for group in Groups:
    idxs = [2,4,6] # your pruning indices
    group.prune(idxs=idxs)
    print(group)

output = model(torch.randn(1,3,224,224)) # 尝试运行剪枝后的网络

但该段代码剪枝,在TP实际剪枝也是较少使用,这里是展示一个剪枝底层的基本操作。

3 TP对完整网络的剪枝


3.1 常用的结构化剪枝原理

结构化和非结构化剪枝方向,已发表的有较多的论文。但在工业上较常用的为结构化剪枝。实际中最常用的结构化剪枝方法:

  • 利用权值进行filter剪枝:Pruning Filters for Efficient ConvNets
    在这张图中,我们可以找到两个卷积参数矩阵(Kernel Matrix):第一个卷积层以 x i x_i xi 作为输入,输出特征图 x i + 1 x_{i+1} xi+1;第二个卷积层以 x i + 1 x_{i+1} xi+1作为输入,生成特征图 x i + 2 x_{i+2} xi+2
    在结构化剪枝中,这两个卷基层之间存在非常直观的依赖关系,即当我们调整第一层的输出通道时,第二个卷积层的输入通道也需要相应的进行调整,这使得蓝色高亮的参数需要同时被剪枝。
    在这里插入图片描述
    此外,作者指出网络中可能存在更复杂的依赖,例如残差结构依赖:
    在这里插入图片描述
  • 利用bn进行剪枝:Learning Efficient Convolutional Networks through Network Slimming
    在这里插入图片描述
    BN会按通道对输入特征进行归一化,使得不同的特征处于比较接近的范围内。我们将缩放因子(从批量归一化层重用)与卷积层中的每个通道相关联。稀疏正则化在训练期间被施加在这些缩放因子上,以自动识别不重要的通道。缩放因子值较小(橙色)的通道将被修剪(左侧)。修剪后,我们获得紧凑模型(右侧),然后对其进行微调,以实现与正常训练的全网络相当(甚至更高)的精度。
    在任何一个网络中,BN的scale参数都具备一定的绝对值大小(也就是不会过小),这意味着各个通道都具有不可忽略的重要性。解决这类问题的一种有效方法是使用稀疏训练,通过对scale参数施加正则化项来稀疏化一部分通道。在slimming论文中,作者对scale参数施加了一个额外的L1正则化项,从而实现了这一过程。整个流程如下所示:稀疏训练–>剪枝–>微调
    在这里插入图片描述

3.2 TP剪枝示例

网络中存在大量复杂依赖的情况下,如何进行剪枝呢?
【1】计算网络每个group中每层的重要性

  • Torch-Puning 库内置了处理依赖的功能,并提供了可扩展的接口用于自定义剪枝器。
    tp.importance.Importance 要求我们实现一个非常简单的接口 __call__
    • 入参为一个 group,包含了多个相互耦合的层。
    • 输出为一个一维的重要性的得分向量,其含义是每个通道的重要性,因此他的维度和通道数量是相同的。
      由于输入的group通常会包含多个可剪枝层,因此我们首先对这些层进行独立的重要性计算,然后通过求平均值得到最终结果。
  • Torch-Puning也提供了常用重要性评估策略:
    tp.importance.MagnitudeImportance(p=2)p=2表示使用L2正则,对每个group中的每个层的权值,独立的计算重要性 。
    tp.importance.BNScaleImportance():利用BN计算每个group中的每个层的权值的重要性
    tp.importance.GroupNormImportance():与继承于MagnitudeImportance,且没做任何的添加和修改。

【2】对网络进行剪枝

  • Torch-Pruning库定义了一个元剪枝器 tp.pruner.MetaPruner,能够完成除了重要性评估之外的所有工作。一般常在自定义的重要性评估后,执行剪枝时使用
  • Torch-Puning也提供了常用的剪枝策略
    tp.pruner.MagnitudePruner()
    tp.pruner.BNScalePruner()
    tp.pruner.GroupNormPruner() Depgraph 提出的基于全局重要性的剪枝

【3】例子
为了增加难度,这里我们对一个DenseNet模型进行剪枝。
这里只展示了稀疏训练和微调使用的位置,仅剪枝部分能够有效跑通。

import torch
import torch.nn as nn
import torch_pruning as tp
from torchvision.models import densenet121

model = densenet121(pretrained=True)
example_inputs = torch.randn(1, 3, 224, 224)

# 1. 使用我们上述定义的重要性评估
# imp = tp.importance.MagnitudeImportance(p=2)
# imp = tp.importance.BNScaleImportance()
imp = tp.importance.GroupNormImportance()

# 2. 忽略无需剪枝的层,例如最后的分类层
ignored_layers = []
for m in model.modules():
    if isinstance(m, torch.nn.Linear) and m.out_features == 1000:
        ignored_layers.append(m) # DO NOT prune the final classifier!

# 3. 初始化剪枝器
iterative_steps = 5 # 迭代式剪枝,重复5次Pruning-Finetuning的循环完成剪枝。  
# pruner = tp.pruner.MagnitudePruner(
# pruner = tp.pruner.BNScalePruner(
pruner = tp.pruner.GroupNormPruner(
    model,
    example_inputs, # 用于分析依赖的伪输入
    importance=imp, # 重要性评估指标
    iterative_steps=iterative_steps, # 迭代剪枝,设为1则一次性完成剪枝
    ch_sparsity=0.5, # 目标稀疏性,这里我们移除50%的通道 ResNet18 = {64, 128, 256, 512} => ResNet18_Half = {32, 64, 128, 256}
    ignored_layers=ignored_layers, # 忽略掉最后的分类层
)

# 4. 稀疏训练(为了节省时间我们假装在训练,实际应用时只需要在optimizer.step前插入regularize即可)
for _ in range(100):
    pass
    # optimizer.zero_grad() 
    # ...
    # loss.backward()
    # pruner.regularize(model, reg=1e-5) # <== 插入该行进行稀疏化
    # optimizer.step()
    
# 4. Pruning-Finetuning的循环
base_macs, base_nparams = tp.utils.count_ops_and_params(model, example_inputs)
for i in range(iterative_steps):
    pruner.step() # 执行裁剪,本例子中我们每次会裁剪10%,共执行5次,最终稀疏度为50%
    macs, nparams = tp.utils.count_ops_and_params(model, example_inputs)
    print("  Iter %d/%d, Params: %.2f M => %.2f M" % (i+1, iterative_steps, base_nparams / 1e6, nparams / 1e6))
    print("  Iter %d/%d, MACs: %.2f G => %.2f G"% (i+1, iterative_steps, base_macs / 1e9, macs / 1e9))
    # finetune your model here
    # finetune(model)
    # ...
print(model)

<think>我们正在讨论Torch-Pruning(结构化剪枝)与非结构化剪枝在推理速度上的对比。根据引用[1]和[2]: - 结构化剪枝(如Torch-Pruning)移除整个结构单元(如卷积通道),因此可以直接减少矩阵运算的维度,从而在通用硬件上提升推理速度。 - 非结构化剪枝虽然移除了更多细粒度权重(单个权重),但需要特殊硬件或软件库才能加速,否则在通用硬件上可能无法体现速度优势,甚至可能变慢(因为稀疏矩阵运算在通用硬件上效率低)。 引用[4]中的实验也表明,即使剪枝后FLOPs下降,在通用显卡(如3060)上推理速度可能没有提升,这可能是由于非结构化剪枝或未充分优化结构导致的。但Torch-Pruning作为结构化剪枝框架,其设计目标就是获得硬件友好的模型结构。 因此,Torch-Pruning在通用硬件上的推理速度优势主要来自: 1. **直接减少计算量**:通过移除整个通道,卷积层的矩阵乘法规模减小,计算量(FLOPs)降低。 2. **内存连续性**:结构化剪枝后的模型保持稠密矩阵运算,而稀疏矩阵(非结构化剪枝结果)在通用硬件上需要额外处理稀疏索引,增加了开销。 3. **硬件友好**:现代硬件(如GPU)对稠密矩阵运算有高度优化,因此结构化剪枝后的模型可以直接利用这些优化。 但是,如果剪枝后模型结构不够优化(如引用[4]中提到的实验),可能因为内存访问模式变化等原因导致速度未提升。因此,剪枝后的模型结构优化和硬件适配也很重要。 综上所述,Torch-Pruning(结构化剪枝)相比非结构化剪枝,在通用硬件上具有更显著的推理速度优势,但需要合理剪枝策略和微调以保持精度。</think>### Torch-Pruning与非结构化剪枝在推理速度上的对比分析 #### 1. **结构化剪枝的本质优势** Torch-Pruning作为**结构化剪枝框架**,其核心优势在于**直接优化计算图结构**: - 通过移除整个通道/滤波器(如卷积层输出通道),直接降低矩阵运算维度 - 剪枝后模型保持**稠密张量运算**,例如: - 卷积层输入/输出通道数减少:$C_{out} \times C_{in} \times K_h \times K_w \rightarrow (C_{out}-p) \times (C_{in}-p) \times K_h \times K_w$ - 全连接层权重缩减:$W \in \mathbb{R}^{m \times n} \rightarrow W' \in \mathbb{R}^{(m-q) \times (n-q)}$ 其中$p,q$为剪枝比例[^1][^3] #### 2. **推理速度优势的具体体现** | **特性** | Torch-Pruning(结构化) | 非结构化剪枝 | 速度优势来源 | |------------------|-------------------------------|--------------------------|--------------------------| | **计算模式** | 稠密矩阵运算 | 稀疏矩阵运算 | 避免稀疏计算开销 | | **硬件兼容性** | 直接适配CPU/GPU | 需专用硬件(如NPU)加速 | 通用硬件无需改造[^1][^2] | | **内存访问** | 连续内存访问 | 随机内存访问 | 减少缓存失效 | | **实际加速比** | FLOPs下降≈实际加速(理想情况) | FLOPs下降≠实际加速 | 计算效率线性提升[^4] | #### 3. **关键差异解析** 1. **计算效率** - 结构化剪枝:减少**实际计算量**(如卷积通道数下降直接降低MAC操作) - 非结构化剪枝:仅减少"理论计算量",但稀疏矩阵在通用硬件上需额外处理: $$ \text{有效加速} = \frac{\text{FLOPs}_{减少}}{\text{稀疏索引开销} + \text{零值跳过逻辑}} $$ 通常索引开销抵消计算增益[^2] 2. **硬件适配** - Torch-Pruning输出标准稠密模型,可直接部署于PyTorch/TensorRT等框架 - 非结构化剪枝需依赖: - 专用稀疏计算库(如cuSPARSE) - 稀疏张量编译器(如TVM) 否则可能**速度反而下降**(如引用[4]中3060显卡实验)[^4] 3. **内存瓶颈** 非结构化剪枝的随机内存访问模式易导致: ```mermaid graph LR A[稀疏权重] --> B[非连续内存访问] B --> C[高缓存未命中率] C --> D[显存带宽瓶颈] ``` 而结构化剪枝保持内存连续性,更适合GPU的SIMD架构[^1][^3] #### 4. **实验验证** 引用[4]的YOLOv10n剪枝实验表明: - 移除60%通道后FLOPs从8.9G降至2.0G - **但3060显卡上推理速度未提升** 原因分析: 1. 未充分优化剪枝后结构(如层间通道不匹配) 2. 未进行稀疏训练直接剪枝导致精度崩塌(MAP 37→22) 3. **结构化剪枝需配合:** - 层间依赖分析(避免通道数冲突) - 微调恢复精度 - 计算图重优化(如TensorRT转换)[^4] #### 结论 Torch-Pruning相比非结构化剪枝的推理速度优势体现在: 1. **硬件友好性**:直接生成优化后的稠密模型,无需专用加速库 2. **计算确定性**:FLOPs下降可线性转化为速度提升(理想情况下) 3. **部署简易性**:兼容现有推理框架,避免稀疏计算开销 但需注意:**实际加速依赖剪枝策略合理性**(如通道移除比例、层间协调)和**后续微调**,否则可能因精度损失或结构失衡导致加速失效[^4]。
评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值