吴恩达机器学习线性回归

监督学习

回归问题(预测连续型数据)

分类问题(预测离散型数据)

线性回归

预测函数:h(x) = θ 0 + x θ 1 \theta_0+x\theta_1 θ0+xθ1
减小误差即使误差函数 J ( θ ) = 1 2 m ∑ i = 0 n ( h ( θ ) i + y i ) 2 J(\theta)= \frac{1}{2m}\sum\limits_{i=0}^{n}{(h(\theta)^i+y^i)}^2 J(θ)=2m1i=0n(h(θ)i+yi)2 最小。

m代表训练集数据地数量
举例说明:

在这里插入图片描述
在这里插入图片描述

梯度下降法

找出现在位置下降最快地方向

θ j : = θ j − α ∂ J ( θ 0 , θ 1 ) ∂ θ j \theta_j:=\theta_j-\alpha \frac{\partial J(\theta_0,\theta_1)}{\partial \theta_j } θj:=θjαθjJ(θ0,θ1)
α \alpha α是学习率,即下降的步长
:=代表的是赋值地意思

θ 0 : = θ 0 − α ∂ J ( θ 0 , θ 1 ) ∂ θ 0 \theta_0:=\theta_0-\alpha \frac{\partial J(\theta_0,\theta_1)}{\partial \theta_0} θ0:=θ0αθ0J(θ0,θ1)

这个方法的缺点是只能获取局部最优点。
但是线性回归的梯度下降法只有全局最优解。

矩阵向量乘法

h θ ( x ) = − 40 + 0.25 x h_\theta(x)=-40+0.25x hθ(x)=40+0.25x
[ 2104 1416 1534 852 ] × [ − 40 0.25 ] \begin{gathered} \begin{bmatrix} 2104 \\ 1 416\\1534\\852\end{bmatrix} \quad \times \begin{bmatrix} -40 \\ 0.25 \end{bmatrix} \quad \end{gathered} 210414161534852×[400.25]

多功能(多变量)
h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + … … h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+…… hθ(x)=θ0+θ1x1+θ2x2+
x = [ x 0 x 1 x 2 … … x n ] θ = [ θ 0 θ 1 θ 2 … … θ n ] \begin{gathered} x= \begin{bmatrix} x_0 \\ x_1\\x_2\\……\\x_n\end{bmatrix} \quad \theta= \begin{bmatrix} \theta_0 \\ \theta_1 \\ \theta_2\\……\\ \theta_n\end{bmatrix} \quad \end{gathered} x=x0x1x2xnθ=θ0θ1θ2θn
h 0 ( x ) = θ T x h_0(x)=\theta^Tx h0(x)=θTx

梯度下降
θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ) i − y i ) x j i \theta_j:=\theta_j-\alpha \frac{1}{m}\sum\limits_{i=1}^{m}{(h_\theta(x)^i-y^i)}x_j^i θj:=θjαm1i=1m(hθ(x)iyi)xji

变量x需要归一化
x = x − E ( x ) c o v ( x ) x=\frac{x-E(x)}{cov(x)} x=cov(x)xE(x)
这样可以使 − 1 ≤ x i ≤ 1 -1\leq x^i\leq1 1xi1

特别注意不要使步长 α \alpha α太大,不然损失函数无法收敛
α \alpha α最好取值:0.001,0.003,0.01,0.03,0.1,0.3,1……

### 关于吴恩达机器学习课程中的线性回归部分 #### 线性回归的核心概念 在线性回归中,目标是最小化预测值与实际值之间的误差。通过定义成本函数 \( J(\theta) \),可以衡量模型的性能[^2]。具体来说,线性回归的目标是找到一组最优参数 \( \theta_0, \theta_1, ..., \theta_n \),使得预测值尽可能接近真实值。 为了实现这一目标,通常采用梯度下降法来优化这些参数。初始状态下,参数会被赋予零值或其他随机值[^4]。随后,通过对代价函数求导并更新参数的方式逐步降低其值,直至达到收敛状态。 #### 参数的意义及其作用 \( w \) 和 \( b \) 是模型的关键组成部分,在训练过程中不断被调整以提高准确性。其中,\( w \) 表示特征的重要性程度(权重),而 \( b \) 则作为偏置项影响最终输出结果的位置。 #### 应用于分类场景下的局限性分析 当尝试利用线性回归解决二元分类问题时会遇到明显缺陷——即假设函数可能会给出超出合理范围(如小于0或大于1)的结果[^1]。因此引入了更适合此类任务的新方法—逻辑回归(Logistic Regression),它能够确保输出始终位于区间\[0,1\]内,并提供概率解释意义。 以下是基于上述理论的一个简单Python实现例子: ```python import numpy as np def compute_cost(X, y, theta): m = len(y) predictions = X.dot(theta) cost = (1/(2*m)) * np.sum((predictions-y)**2) return cost def gradient_descent(X, y, theta, alpha, num_iters): m = len(y) for i in range(num_iters): gradients = (1/m)*X.T.dot(X.dot(theta)-y) theta -= alpha*gradients return theta ``` 以上代码片段展示了如何计算损失以及执行一次完整的梯度下降迭代过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值