梯度
机器学习中,梯度下降法,牛顿法都会用到梯度概念
对于一元函数,梯度可以看成导数
对于多元函数,梯度可以看成偏导数
如果多元函数包含N个自变量:x1,x2,...,xnx_1, x_2, ..., x_nx1,x2,...,xn,那么它的梯度就是由x1,x2,...,xnx_1, x_2, ..., x_nx1,x2,...,xn分别求偏导组成的向量
记作:
▽f(x)=[δfδx1,δfδx2,...,δfδxn]T\triangledown{f(x)} = \begin{bmatrix} \frac{\delta{f}}{\delta{x_1}},\frac{\delta{f}}{\delta{x_2}}, ..., \frac{\delta{f}}{\delta{x_n}} \end{bmatrix}^T▽f(x)=[δx1δf,δx2δf,...,δxnδf]T
2万+

被折叠的 条评论
为什么被折叠?



