吴恩达老师机器学习课程--单变量线性回归(附练习题的python实现)

机器学习之单变量线性回归

吴恩达老师的coursera课程翻译版:https://www.bilibili.com/video/BV164411b7dx?p=5

参考github上大佬python实现算法的笔记:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes

很经典的课程啦,这个翻译还可以,有不清楚的直接看英文。网上笔记很多,我也记录一下,记得牢固一点。

本章节学习的是监督学习两大类(回归问题、分类问题)中的回归问题。

一、模型描述

  1. 变量表示:

    • m:训练集数量
    • x:输入变量(特征)
    • y:输出变量(目标变量)
    • (x,y):训练样本
    • (x(i),y(i)):第i个训练样本
  2. 监督学习的工作原理:

    重点是找到假设函数h(hypothesis),h有很多种我们从简单的一元线性学起。

    image-20200728155207587

    h的函数表示: h ( x ) = θ 0 + θ 1 x h(x)=\theta_{0}+\theta_{1}x h(x)=θ0+θ1x

    其中 θ i \theta_{i} θi为模型参数,要求得假设函数必须得到参数值,而参数值是我们要通过下面的代价函数计算求得的。

二、引出代价函数的概念

  1. 作用:能够计算出最有可能拟合我们数据的直线。

  2. 要找出最有可能拟合的直线,就应该满足下式:
    m i n i m i z e θ 0 , θ 1 ∑ i = 1 m ( h ( x ) ( i ) − y ( i ) ) 2 2 m {minimize \atop {\theta_{0},\theta_{1}}}\sum_{i=1}^m\frac{({h(x)^{(i)}-y^{(i)}})^2}{2m} θ0,θ1minimizei=1m

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值