Machine Learning---liner regression of one value

本文介绍了单变量线性回归的基本概念,包括假设函数h(x)=Θ0+Θ1⋅x,代价函数J(Θ0,Θ1),以及梯度下降算法Θj:=Θj−α⋅∂∂ΘjJ(Θo,Θ1)。通过这些数学工具,我们可以找到最佳的参数Θ0和Θ1,从而实现对数据的有效拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

单变量线性回归

  • liner regression function:
    定义此假设函数为:h(x)=Θ0+Θ1⋅xh(x)=\Theta_0+\Theta_1\cdot xh(x)=Θ0+Θ1x简单的是用线性函数来拟合输入的数据集。其中Θ0和Θ1\Theta_0和\Theta_1Θ0Θ1是需要求解出的两个参数。

  • cost function:
    定义此代价函数为:J(Θ0,Θ1)=12m∑i=1m(h(xi)−yi)2J(\Theta_0,\Theta_1)=\frac{1}{2m}\sum_{i=1}^{m}{(h(x^i)-y^i)^2}J(Θ0,Θ1)=2m1i=1m(h(xi)yi)2其中xi和yix^i 和y^ixiyi是数据集的输入输出,而h(xi)h(x^i)h(xi)表示线性回归得到的估算值,这个代价函数有点类似于概率论中的平方差。。。

  • gradient descent:
    定义此梯度下降算法为:Θj:=Θj−α⋅∂∂ΘjJ(Θo,Θ1)\Theta_j:=\Theta_j-\alpha\cdot\frac{\partial }{\partial \Theta_j}J(\Theta_o,\Theta_1)Θj:=ΘjαΘjJ(Θo,Θ1) (for j=0 and j=1) %%% :=符号表示将式子右边赋值给左边。α\alphaα表示学习速率(learning rate )。
    梯度下降同时更新Θ0和Θ1\Theta_0和\Theta_1Θ0Θ1,最终找到偏微分项为零,得到Θ0和Θ1\Theta_0和\Theta_1Θ0Θ1。更新时遵循“同时赋值,同时更新”

将代价函数和假设函数带回到梯度下降算法中,就能得到具体的Θ0和Θ1\Theta_0和\Theta_1Θ0Θ1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值