【CS229 Deep Learning笔记】一. 介绍:线性回归问题

这篇博客详细介绍了线性回归的基本概念,包括梯度下降法(批量与随机)和正规方程,以及局部权重线性回归作为缓解过拟合的方法。通过CS229课程内容,探讨了损失函数J的含义,并解释了为何选择线性回归模型和均方差作为误差函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  注:该笔记主要以我自己的个人理解为主,部分基础知识会有省略,有些地方会有补充,小标题不完全按照课程pdf的顺序。笔记仅作参考,还是建议大家以课程pdf为主。

           最后我会附上带有书签的课程pdf(2017年秋季课程),及problem set答案。如果有疑问,欢迎大家留言或私信讨论。

           另,第一章虽然是介绍,但内容非常多,我会分为3篇博客来发。


目录

零·基础知识

一·线性回归

1. 梯度下降基本算法

2. 另一种梯度下降策略——随机梯度下降

(1)批量梯度下降

(2)随机梯度下降

3. 正规方程(normal equation)

二. 对J和线性回归的一个解释

三. 局部权重线性回归(locally weighted linear regression)


 


零·基础知识

   

(图源自CS 229课程pdf)

    统计学习方法的大致过程如上所示,训练集(Training set)通过算法训练(Learning algorithm)得到假说h(hypothesis)。在测试集中,输入x得到预测值y。我们的目标是在拥有训练集和测试集的情况下,求得假说h,使得h能准确预测y|x。

     这些问题往往可以分为两大类,回归问题和分类问题。

一·线性回归

    形如h(x)=\sum_{i=0}^n\theta_ix_i=\theta^Tx的问题被称为线性回归问题。x为n维向量,每一维对应不同的输入特征。如在住房价格预测问题中,x1是房屋面积,x2是房屋数量。在实际应用中,我们会在x之前加上一个1,即设x_0为1,使预测函数可以在平面上自由移动,不必非得通过原点。

    为了解y的预测值与实际值的差距,我们定义损失函数为:

J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2

    损失函数(cost function)有时也叫风险函数,在不同的翻译中也有别的叫法,但一般都是以J(\theta)来表示,大家可以从这一点来判断。另外,损失函数也可以有别的计算方式,但用得最多的就是均方差的形式。本节中只使用该误差函数。

    结合刚才介绍的假说h,我们的目标就是调整h的参数使损失函数J尽可能小(即预测值与实际值的差距尽可能小),由此得到假说h。

1. 梯度下降基本算法


输入:训练集

输出:参数θ

1.令θ=0;

2.计算J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2

3.令\theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta),若达到迭代次数,或

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值