自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 Datawhale X 李宏毅苹果书 AI夏令营

为此,研究者们提出了其他归一化方法,例如层归一化(Layer Normalization)、实例归一化(Instance Normalization)、组归一化(Group Normalization)等,这些方法针对不同的应用场景提供了更加灵活的选择。然而,后续研究表明,批量归一化的真正效果在于平滑损失表面,减少其崎岖性,使得优化过程更为简单和稳定。批量归一化是一种有效的深度学习优化技术,通过对每层输入进行归一化处理,平滑了损失表面,显著加快了模型训练速度,提高了模型的泛化能力。

2024-09-03 19:27:12 342

原创 Datawhale X 李宏毅苹果书 AI夏令营

学习笔记之自适应学习率 1. 动量法(Momentum) 动量法旨在克服传统梯度下降法容易陷入局部最优解或鞍点的问题。 通过结合前一步的更新方向,可以使优化过程更具方向性,即使梯度方向改变,也可以延续原方向的动量,帮助越过局部最优。 2. 自适应学习率概述 自适应学习率方法为每个参数分配不同的学习率,优化不同方向的更新步伐。 当梯度较小且损失不再下降时,传统梯度下降可能停滞不前,自适应学习率能调整学习步伐继续优化。 3. 典型方法:AdaGrad AdaGrad(Adaptive Gradien

2024-08-31 23:13:35 314

原创 Datawhale X 李宏毅苹果书 AI夏令营

概念和定义:问题的重要性:挑战:解决方案和策略:数学原理和公式:

2024-08-27 22:40:58 215 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除