深度学习初探/01-回归问题/梯度下降算法Gradient Decent
一、梯度下降算法的本质
通过迭代计算,不断调整xxx的取值,从而求得函数的“极小值”
二、梯度下降算法的具体实现(类似于“二分查找”)
【x1x_1x1】为每次迭代后所求得的“下一步xxx值”;
【x0x_0x0】为“当前xxx值”;
【f′(x0)f'(x_0)f′(x0)】为“f(x)f(x)f(x)在点x0x_0x0处的导数值”
【LR】Learning Rate,即学习速率,用于控制每一次迭代的“步长Step”,避免每一次调整距离过大
【x∗x^*x∗】最终求得的极小值点
迭代公式:x1=x0−f′(x0)∗LRx_1 = x_0 - f'(x_0)*LRx1=x

本文深入探讨了梯度下降算法在深度学习初探中的核心作用,阐述了其本质是通过迭代寻找函数极小值。详细解释了迭代公式,并分析了学习速率(Learning Rate)对优化效率的影响。接着,文章介绍了线性回归、逻辑回归以及分类问题,展示了这些基础概念在深度学习中的应用。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



