一、本文介绍
本文记录的是利用DynamicTanh + SDI + PPA Detect改进YOLOv13,分别涉及骨干、颈部和检测头部分的改进。一方面按照此配置,其工作量及创新程度能够满足论文发表的需求,另一方面是一些难以融合多个YAML的举例,以帮助大家理解如何将多个YAML整合到一个YAML中。
专栏目录:YOLOv13改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
文章目录
二、DyT介绍
Transformers without Normalization
2.1 出发点
归一化层在现代神经网络中应用广泛,被视为训练深度网络的关键组件。然而,研究发现Transformer中的层归一化(LN)层映射输入到输出的曲线类似tanh函数,呈S形,会缩放输入激活并压缩极端值。
基于这一观察,研究人员提出动态双曲正切(Dynamic Tanh,DyT)模块,作为归一化层的替代方案。
2.2 结构原理
DyT层的定义为 D y T ( x ) = γ ∗ t a n h ( α x ) + β DyT(x)=\gamma * tanh (\alpha x)+\beta DyT(
订阅专栏 解锁全文

1048

被折叠的 条评论
为什么被折叠?



