手撕算法
小于不是小鱼呀
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
手撕 Layer Normalization
它与 Batch Normalization 不同,Layer Normalization 是在单个样本的特征维度上进行归一化,而不是在批次维度上。:将每个特征减去均值,除以标准差,使其分布的均值为 0,方差为 1。:对每个样本的所有特征计算均值和方差。对标准化后的结果进行缩放和平移。原创 2025-03-09 21:01:05 · 308 阅读 · 0 评论 -
手撕 Batch Normalization(BN,批归一化)
对于 mini-batch xxx(形状为 (N,D)(N, D)(N,D),即 N 个样本,每个样本有 D 个特征),先计算。原创 2025-03-02 20:37:21 · 326 阅读 · 0 评论
分享