线性回归的公式:
hθ(x)=θ0+θ1x1+θ2x2+⋯+θnxn h_\theta(x) = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + \dots + \theta_n x_n hθ(x)=θ0+θ1x1+θ2x2+⋯+θnxn
其中,hθ(x)h_\theta(x)hθ(x) 是预测值,θ\thetaθ 是模型参数,x1,x2,…,xnx_1, x_2, \dots, x_nx1,x2,…,xn 是输入特征。
梯度下降的更新公式:
θj=θj−α⋅1m∑i=1m(hθ(x(i))−y(i))xj(i) \theta_j = \theta_j - \alpha \cdot \frac{1}{m} \sum_{i=1}^m \left(h_\theta(x^{(i)}) - y^{(i)}\right) x_j^{(i)} θj

最低0.47元/天 解锁文章
925

被折叠的 条评论
为什么被折叠?



