
深度学习之模型压缩和加速
文章平均质量分 80
通过简化模型操作实现模型加速
xdhe1216
人工智能算法工程师
展开
-
CVPR 2022 | RepLKNet:采用31×31大kernel的CNN网络,性能超越Swin Transformer
Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs paper:https://arxiv.org/pdf/2203.06717.pdfcode:https://github.com/megvii-research/RepLKNet该篇论文论述了卷积核的kernelsize可以选择多大。25x25就很好,31x31甚至更好。清华大学丁霄汉继RepVGG后提出了一种大量采用超大卷积核的模型...原创 2022-03-15 20:46:55 · 5065 阅读 · 1 评论 -
ICCV 2021 | 性能炸裂的通道剪枝算法ResRep(Keras复现)
# -*- coding: utf-8 -*-"""CompactorLayer layers."""from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionfrom keras import activationsfrom keras import initializersfrom keras import regularizers.原创 2021-09-29 21:33:15 · 4756 阅读 · 8 评论 -
CVPR 2021 | RepVGG: Making VGG-style ConvNets Great Again阅读分享(keras实现)
RepVGG: Making VGG-style ConvNets Great Againpaper:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG摘要提出了一个简单而强大的卷积神经网络结构,它具有一个类似VGG的推理时间体,只由3×3卷积和ReLU组成,而训练时间模型有一个多分支拓扑。训练时间和推理时间体系结构的解耦是通过结构再参数化技术实现的,因此该模型被命名为RepVGG。在Ima原创 2021-06-06 12:17:27 · 733 阅读 · 1 评论 -
CVPR 2021 | Diverse Branch Block(ACNetV2)论文阅读分享(keras实现)
Diverse Branch Block: Building a Convolution as an Inception-like Unit 旷视——2021CVPRpaper:https://arxiv.org/pdf/2103.13425.pdfcode:https://github.com/DingXiaoH/DiverseBranchBlock摘要提出了一个卷积神经网络(ConvNet)的通用构建块,以提高没有任何推理时间成本的性能。该块被命名为“不同分支块”(DBB),它通过结原创 2021-06-06 11:16:38 · 2387 阅读 · 0 评论 -
ICCV 2019 | ACNet论文阅读分析(keras实现)
ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks 清华——ICCV2019paper:https://arxiv.org/pdf/1908.03930.pdfcode:https://github.com/DingXiaoH/ACNet摘要通过使用一维非对称卷积来加强方形卷积核的特征表达,可以让训练精度更高。在模型推理时,等价地将ACNet转换为相同原创 2021-06-06 10:26:15 · 809 阅读 · 0 评论