对于mobilenet v1的深度可分离卷积 全网讲解最清晰

本文介绍了深度可分离卷积的概念及其在Mobilenet中的应用。通过与标准卷积的对比,展示了深度可分离卷积如何减少参数数量,并讨论了其在逐通道卷积和逐点卷积两个阶段的工作原理。

一些轻量级的网络,如mobilenet中,会有深度可分离卷积depthwise separable convolution,由depthwise(DW)和pointwise(PW)两个部分结合起来,用来提取特征feature map

相比常规的卷积操作,其参数数量和运算成本比较低

常规卷积操作

对于一张5×5像素、三通道(shape为5×5×3),经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4,最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3

卷积层共4个Filter,每个Filter包含了3个Kernel,每个Kernel的大小为3×3。因此卷积层的参数数量可以用如下公式来计算:

N_std = 4 × 3 × 3 × 3 = 108

深度可分离卷积

  • 逐通道卷积

Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积

一张5×5像素、三通道彩色输入图片(shape为5×5×3),Depthwise Convolution首先经过第一次卷积运算,DW完全是在二维平面内进行。卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。所以一个三通道的图像经过运算后生成了3个Feature map(如果有same padding则尺寸与输入层相同为5×5),如下图所示。

其中一个Filter只包含一个大小为3×3的Kernel,卷积部分的参数个数计算如下:

N_depthwise = 3 × 3 × 3 = 27

Depthwise Convolution完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise Convolution来将这些Feature map进行组合生成新的Feature map

  • 逐点卷积

Pointwise Convolution的运算与常规卷积运算非常相似,它的卷积核的尺寸为 1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的map在深度方向上进行加权组合,生成新的Feature map。有几个卷积核就有几个输出Feature map

由于采用的是1×1卷积的方式,此步中卷积涉及到的参数个数可以计算为:

N_pointwise = 1 × 1 × 3 × 4 = 12

经过Pointwise Convolution之后,同样输出了4张Feature map,与常规卷积的输出维度相同

参数对比

回顾一下,常规卷积的参数个数为:
N_std = 4 × 3 × 3 × 3 = 108

Separable Convolution的参数由两部分相加得到:
N_depthwise = 3 × 3 × 3 = 27
N_pointwise = 1 × 1 × 3 × 4 = 12
N_separable = N_depthwise + N_pointwise = 39

相同的输入,同样是得到4张Feature map,Separable Convolution的参数个数是常规卷积的约1/3。因此,在参数量相同的前提下,采用Separable Convolution的神经网络层数可以做的更深。

 

MobileNet_v2模型解读

倒置残差瓶颈结构  https://zhuanlan.zhihu.com/p/58699347

MobileNet V1~V3系列极简讲解

https://zhuanlan.zhihu.com/p/95778474?from_voters_page=true

<think>好的,我现在需要回答用户关于深度可分离卷积的其他名称或叫法的问题。首先,我得回忆一下这个术语在学术论文或技术资料中的常见别名。深度可分离卷积深度学习中的一个概念,主要应用在卷积神经网络中,尤其是在轻量级模型设计里,比如MobileNet。 首先,深度可分离卷积的英文是Depthwise Separable Convolution,可能有一些翻译上的不同,比如中文里可能会有不同的译名。比如“深度可分离卷积”是否还有其他说法?我记得有时候会看到“深度分离卷积”这样的简化说法,或者“深度可分解卷积”?不过不确定是否正确,需要验证。 另外,可能需要拆分来看,深度可分离卷积其实分为两个步骤:Depthwise卷积和Pointwise卷积。所以有时候可能会分开提到这两个部分,或者用这两个步骤的组合来描述整个操作。比如,有的文献可能会直接称为Depthwise和Pointwise卷积的组合,而不直接使用“深度可分离卷积”这个术语。 还有,是否有其他替代术语?比如在MobileNet的论文中,他们提到使用Depthwise Separable Convolution来减少计算量,可能有的地方简称为“Separable Convolution”。但要注意,Separable Convolution在传统图像处理中指的是另一种分解方式,比如将卷积核分解为空间可分离的,比如水平和垂直方向,这可能和深度可分离卷积不同,需要区分。不过可能在深度学习的上下文中,有时会混用,需要确认这一点。 另外,是否有其他的别名?比如“通道分离卷积”或者“分组卷积”的某种变体?不过分组卷积(Grouped Convolution)和深度可分离卷积不同,虽然它们都涉及对通道的分组处理,但深度可分离卷积的Depthwise部分是对每个输入通道单独应用滤波器,而Pointwise则是1x1卷积来组合通道。所以分组卷积可能不是别名,而是一个相关但不同的概念。 还要考虑是否有其他中文翻译,比如“深度方向可分离卷积”或者“深度分解卷积”?需要查阅相关资料确认是否有这些说法。比如在一些中文论文或技术博客中,可能使用不同的翻译,但标准术语应该是“深度可分离卷积”。 总结可能的别名: 1. 深度分离卷积(可能简化的说法) 2. 深度可分解卷积(不太常见,但可能有人用) 3. 分解卷积(但可能不够准确) 4. 或者直接称为Depthwise和Pointwise卷积的组合 5. 是否有时被称为“通道可分离卷积”?不过不太确定,可能不准确。 同时,需要注意区分传统的空间可分离卷积(Spatially Separable Convolution),比如将3x3的卷积分解为3x11x3的卷积核,这与深度可分离卷积不同。后者是在深度方向(即通道维度)进行分解,而前者是在空间维度分解。 因此,正确的替代术语可能包括“深度方向可分离卷积”来强调在通道维度上的分解,或者直接使用英文的Depthwise Separable Convolution的直译。另外,可能需要指出,在部分文献中可能简称为“可分离卷积”,但需注意上下文以避免混淆。 后,是否有其他学术上的术语?可能需要参考一些权威资料或论文中的用法。例如,MobileNet v1和v2的论文中均使用Depthwise Separable Convolution,所以可能这是标准的术语,而其他名称可能较少使用,但可能存在一些变体。例如,有的地方可能称为“深度分解卷积”或类似的翻译,但需要确认是否有这样的用法。 综上所述,用户的问题需要回答深度可分离卷积的别名或替代术语,可能需要列举几个可能的名称,并指出哪些是正确的,哪些可能存在混淆,同时引用相关文献中的例子。</think>深度可分离卷积在学术文献和技术资料中主要有以下别名或替代术语: 1. **深度分离卷积** 这是对英文术语"Depthwise Separable Convolution"的直接简化翻译,常见于中文技术文档或讨论中[^1]。 2. **深度方向可分离卷积** 强调卷积操作在通道(深度)方向上的分离特性,用于区分传统的空间可分离卷积(如将$3×3$卷积分解为$3×1$和$1×3$的操作)。 3. **Depthwise + Pointwise卷积组合** 由于深度可分离卷积包含两个步骤: - **Depthwise卷积**:对每个输入通道单独应用滤波器 - **Pointwise卷积**:通过$1×1$卷积跨通道组合特征 因此部分文献会直接以这两个步骤的组合命名该操作。 4. **通道分离卷积**(需谨慎使用) 部分非正式场景中可能使用此术语,但需注意与分组卷积(Grouped Convolution)区分。深度可分离卷积的滤波器数量等于输入通道数,而分组卷积是将通道分组后分别处理。 **需注意的易混淆术语**: - **可分离卷积(Separable Convolution)**:传统图像处理中指空间可分离的卷积核分解,例如将二维高斯核分解为两个一维核的乘积。在深度学习中若未明确说明上下文,可能引发歧义[^1]。 --- ### 相关问题 1. 深度可分离卷积与传统卷积的计算复杂度差异如何? 2. MobileNet如何通过深度可分离卷积实现模型轻量化? 3. 深度可分离卷积在哪些场景下可能影响模型精度? [^1]: 引用内容中提到的"分层"思想与深度学习的层级结构相关,深度可分离卷积通过分解标准卷积的通道与空间操作,进一步细化了网络层的功能划分。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

往事如yan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值