- 博客(2)
- 收藏
- 关注
原创 LayerNorm 和BatchNorm 的区别
对每个通道,在 (B) 或 (B×LB \times LB×L) 维度上统计均值方差;适用于LinearConv1d等 1D/向量数据。:对每个通道,在 (N×H×WN×H×W) 维度上统计均值方差;适用于Conv2d的图像/特征图数据。
2025-11-29 16:17:33
682
原创 vision transformer(vit)复杂度分析
输入时先将图片进行分割投影---->生成query,key,value向量---->计算注意力权重(多头)---->前馈神经网络。在transformer的编码器和解码器中包含3个多头注意力和2个全连接层。复杂度计算: 对于单个Q,K,V,复杂度为。L:transformer的层数。分割为patch的维度:P×P。, N为patch的数量。输入图像:H ×W×C。
2024-12-18 20:59:05
1319
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅