【机器学习入门】线性回归的概率解释

本文通过概率角度解析线性回归,指出在误差满足高斯分布的假设下,使用平方误差作为损失函数是极大似然估计的体现。线性模型y(i)=θTx(i)+ϵ(i)中,噪声ϵ(i)遵循N(0,σ2)的高斯分布,从而推导出参数θ的极大似然估计,即最小化预测值与实际值差值的平方和。" 106218947,9122568,"深入理解Java中的final,static和权限修饰符

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Andrew Ng的公开课机器学习

线性回归中我们建立了一个线性模型 h(x(i))=θTx(i) ,并计算误差函数 J(θ)=mi=1(h(x(i))y(i))2=mi=1(θTx(i)y(i))2

为了选择合适的 θ 使得 J(θ) 最小,我们可以采取两种方法:
1.梯度下降法
2.最小二乘法

具体的在上一节中已有讲述。
本文从概率上解释,为何在计算 J(θ) 时,我们选择预测值与实际值差值的平方作为误差衡量?
实质上,这是我们认为误差满足高斯分布时的极大似然估计。

假设样本的实际关系为 y(i)=θTx(i)+ϵ(i)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值