机器学习 | Week2-多变量线性回归Linear Regression with Multiple Variables

本文深入探讨了多变量线性回归算法,包括模型公式、梯度下降法的实际应用,以及如何在多项式回归中进行特征缩放。还介绍了正规方法法求解参数,并提供了Octave教程,强调了向量化思维在机器学习中的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作为英语课程,读中文参考资料的确有助于理解,但是出于对以后更长久的学习优势考虑,笔记中我会尽量采用英文来表述,这样有助于熟悉专有名词以及常见语法结构,对于无中文翻译的资料阅读大有裨益。

一、Multiple Variables Linear Regression Algorithm

  1. Multiple Feature多维特征

    • 模型中的特征为(x1,x2,x3…xn
    • n代表特征数量
    • xi是第i个训练实例,特征矩阵中的第i行,是一个向量Vector
  2. Multiple Variables Linear Regression Algorithm

    • h θ ( x ) = θ T X = θ 0 + θ 1 x 1 . . . + θ n x n h_\theta(x)=\theta^TX=\theta_0+\theta_1x_1...+\theta_nx_n hθ(x)=θTX=θ0+θ1x1...+θnxn

      • n+1维
    • J ( θ 0 , . . . θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x i ) − y i ) 2 J(\theta_0,...\theta_n)=\frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^i)-y^i)^2 J(θ0,...θn)=2m1i=1m(hθ(xi)yi)2

    • θ j : = θ j − α 1 m ∑ i = 1 m ( ( h θ ( x i ) − y i ) x j ) \theta_j:=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^{m}((h_\theta(x^i)-y^i)x^j) θj:=θjαm1i=1m((hθ(xi)yi)xj)

二、梯度下降法实践

  1. x n = x n − μ n s n x_n=\frac{x_n-\mu_n}{s_n} xn=snxnμn
    1. μ n \mu_n μn为平均值
    2. s n s_n sn为标准差

三、Polynomial Regresssion多项式回归

  1. 多项式回归模型运行梯度下降算法前,必须进行特征缩放

四、正规方法法

  1. 求导
  2. θ = ( X T X ) − 1 X T y \theta=(X^TX)^{-1}X^Ty θ=(XTX)1XTy

五、Octave教程

  1. 建议用什么上网搜索什么,直接搜索matlab相应语法;Octave体量小容易启动,但是终究是要使用Matlab或者转入python的,不如就用Matlab语法;

  2. size:向量维度或者矩阵维度

  3. who:当前工作空间的所有变量,详细信息whos

  4. 点运算针对元素,否则针对整个矩阵

  5. A’转置

  6. imagesc(A)可视化矩阵,colorbar颜色调,colormap gray灰度图

  7. 循环

    • for i=1:10
    • end
  8. exit/quit

  9. 函数定义(```)

    function y = name(x) 
    y=x^2 
    

    可以定义多个返回变量(很特别,大多数编程语言一个函数只能返回一个值)

六、向量化思维

  1. 很简单:使用向量而非循环来计算
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值