TensorFlow深度学习笔记 Stochastic Optimization

本文介绍了随机梯度下降(SGD)的基本概念及其在机器学习中的应用。针对SGD存在的问题,文章进一步探讨了几种优化手段,包括动量法、学习率衰减等,旨在提高模型训练效率和准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


Github工程地址:https://github.com/ahangchen/GDLnotes

官方教程地址
视频/字幕下载

  • 实践中大量机器学习都是通过梯度算子来求优化的
  • 但有一些问题,最大的问题就是,梯度很难计算
  • 我们要计算train loss,这需要基于整个数据集的数据做一个计算
  • 而计算使 train loss 下降最快的调整方向需要的时间是计算train loss本身的三倍

  • 因此有了SGD:Stochastic Gradient Descent
    • 计算train loss时,只随机取一小部分数据集做为输入
    • 调整W和b时,调整的大小step需要比较小,因为数据集小,我们找到的不一定是对的方向
    • 这样也就增加了调整的次数
    • 但可观地减小了计算量

SGD的优化

实际上SGD会使得每次寻找的方向都不是很准,因此有了这些优化

  • 随机的初始值

  • Momentum

考虑以前的平均调整方向来决定每一步的调整方向



  • Learning Rate Decay

    • 训练越靠近目标,步长应该越小
  • Parameter Hyperspace

    • Learning Rate(即调整的step)不是越大越好,可能有瓶颈
    • SGD有许多参数可以调整,所以被称为黑魔法

    • AdaGurad
      • 自动执行momentum和learning rate decay
      • 使得SGD对参数不像原来那样敏感
      • 自动调整效果不如原来的好,但仍然是一个option
原文链接:http://www.jianshu.com/p/0d820ec78e99
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值