Week1-MachineLearning-机器学习-吴恩达AndrewNg

这篇博客介绍了吴恩达机器学习课程的第一周内容,主要包括Introduction、Algorithm(特别是线性回归)和Gradient Descent。线性回归用于根据历史数据预测未来数据,而梯度下降是求解线性回归模型代价函数最小值的方法。博客还回顾了线性代数中的相关概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作为英语课程,读中文参考资料的确有助于理解,但是出于对以后更长久的学习优势考虑,笔记中我会尽量采用英文来表述,这样有助于熟悉专有名词以及常见语法结构,对于无中文翻译的资料阅读大有裨益。

Week1

一、Introduction

二、Algorithm(算法):

1. Supervised Learning(监督算法)
  • 每个样本有一个正确答案

    • 肿瘤分类
    1. Unsupervised Learning
      • 并不知道样本正确与否,仅仅做一个分类
        • 天文学星系聚集
    2. Others: Reinforcement learning(强化学习).etc

三、Linear Regression with One Variable

  1. 单变量线性回归

    • Regression(回归):根据历史数据推测未来数据
  2. Training Set训练集m

    • 训练集m
    • 输入变量x
    • 目标变量y
    • 训练集实例(x,y)
    • 参数parameter θ \theta θ
    • 学习率 α \alpha α,Learning Rate
    • h——hypothesis学习算法得到的解决函数(模型)
    • (x (i) ,y (i) )具体的事例
  3. Cost Function代价函数,又称为误差平方d代价函数

    • 线性回归函数:h θ _\theta θ (x)= θ 0 \theta_0 θ0+ θ 1 \theta_1 θ1x
    • Cost Function: J( θ 0 \theta_0 θ0, θ 1 \theta_1 θ1)= 1 2 m ∑ i = 1 m ( h θ ( x i ) − y i ) 2 \frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^i)-y^i)^2 2m1i=1m(hθ(xi)yi)2
      • 代价函数应当最小,代价函数绘制了等高线图
  4. Gradient Descent梯度下降

    • 一种方法,找到J( θ \theta θ)的最小值
  5. Gradient Descent Algorithm梯度下降算法

    • θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ j ) \theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_j) θj:=θjαθjJ(θ0,θj)
    • 对于不同的迭代 θ j \theta_j θj务必需要同步更新
  6. Linear Regression and Gradient Descent Algorithm

    • ∂ ∂ θ j j ( θ 0 , θ 1 ) = ∂ ∂ θ j 1 2 m ∑ i = 1 m ( h θ ( x i ) − y i ) 2 \frac{\partial}{\partial\theta_j}j(\theta_0,\theta_1)=\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^i)-y^i)^2 θjj(θ0,θ1)=θj2m1i=1m(hθ(xi)yi)2
    • 代入5.2中的公式可以得到 θ \theta θ的迭代公式如下
    • θ 0 : = θ 0 − α 1 m ∑ i = 1 m ( ( h θ ( x i ) − y i ) ) \theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i)) θ0:=θ0αm1i=1m((hθ(xi)yi))
    • θ 1 : = θ 1 − α 1 m ∑ i = 1 m ( ( h θ ( x i ) − y i ) x i ) \theta_1:=\theta_1-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i)x^i) θ1:=θ1αm1i=1m((hθ(xi)yi)xi)
    • Called:批量梯度下降

    四、线性代数回顾

    1. 如题,对矩阵的转置、取逆运算等进行了回顾
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值