深度学习——回归问题
线性回归
一、什么是线性回归?
其中w是权重,b是偏移量。w和b共同称为模型参数。
损失函数L(f) = L(w,b)
线性回归的目的是找到合适的w和b使得损失函数最小。损失函数如下:
损失函数也成为Mean Squared Error (MSE)
找到损失函数后,通过损失函数找损失最小的函数f,也就是确定w和b。
梯度下降
梯度下降可以用来找最合适的w,b即确定最合适的function。
梯度下降的做法:分别对w和b求偏导。分别寻求最合适的w(b),是的损失最小。见李宏毅老师的图:
因为要找损失函数的最小值,所用要用到梯度下降。
梯度下降即求函数的导数或偏导数。
由中学知识我们知道,当f’(x)<0时,f(x)递减,f’(x)>0时,f(x)递增。所以当f’(x)<0时应该向右移动,当f’(x)>0时,应该向左移动。
梯度下降就可以理解为根据f’(x)的符号来使f(x)逐渐减小。
学习率
上面有提到根据梯度下降我们要移动,移动的大小即为学习率。
二、逻辑回归
线性回归的范围是(-∞,+∞),逻辑回归的范围是[0,1]。通过S型函数即可将线性回归转为逻辑回归。
函数图像如下所示:
损失函数如下: