从“Hello World”到线性回归:机器学习入门指南

一、引言:人工智能与机器学习的魅力

什么是人工智能(AI)?

人工智能(AI)是计算机科学的一个分支,致力于开发能够执行通常需要人类智能的任务的系统。AI 系统具备感知、推理、学习和决策的能力,广泛应用于语音识别、图像处理、自动驾驶和推荐系统等领域。例如,当你与智能助手(如SiriAlexa)对话时,你就是在与AI互动。

什么是机器学习(ML)?

机器学习是人工智能的一个子领域,旨在通过数据和经验让计算机自动改进其任务执行能力。与传统编程不同,程序员不需要手动编写规则,而是让计算机从数据中学习和发现解决问题的方法。这在数据量庞大或问题复杂时尤为有效。

机器学习的核心思想

机器学习的核心在于通过数据训练模型,识别数据中的模式,从而进行预测或分类。根据学习方式的不同,机器学习通常分为三大类:

  1. 监督学习:使用已标注的数据训练模型,学习输入与输出之间的关系。
  2. 无监督学习:处理未标注的数据,发现数据的内部结构或模式。
  3. 强化学习:通过与环境的互动和反馈,优化决策策略。

二、深入了解线性回归:简单但强大的算法

什么是线性回归?

线性回归(Linear Regression)是一种基础的机器学习算法,用于描述一个目标变量(y)与一个或多个自变量(X)之间的线性关系,并基于此关系进行预测。理解线性回归对于掌握更复杂的模型至关重要。

线性回归是一种线性模型,即假设输入变量(x)与单一输出变量(y)之间存在线性关系。更具体地说,y 可以通过输入变量(x)的线性组合来计算。

  • 简单线性回归:当只有一个输入变量(x)时,称为简单线性回归。
  • 多元线性回归:当有多个输入变量时,称为多元线性回归。

线性回归的数学原理并不复杂,但它是许多机器学习和数据科学模型的基础。我们将从最简单的一元线性回归开始讲解。

一元线性回归试图找到一条最适合数据的直线,公式如下:
y = β 0 + β 1 ⋅ X y=β0+β1⋅X y=β0+β1X

  • y:目标变量,需预测的值。
  • X:输入特征,自变量。
  • β0:截距,直线与 y 轴的交点。
  • β1:斜率,表示 Xy 的影响程度。

代码示例:一元线性回归

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score

# 生成示例数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 创建线性回归模型
model = LinearRegression()
model.fit(X, y)
y_pred = model.predict(X)

# 绘制数据点和回归直线
plt.figure(figsize=(8, 6))
plt.scatter(X, y, color='blue', label='数据点')
plt.plot(X, y_pred, color='red', label='回归直线')
plt.title('一元线性回归示例')
plt.xlabel('X')
plt.ylabel('y')
plt.legend()
plt.show()

# 模型评估
mse = mean_squared_error(y, y_pred)
r2 = r2_score(y, y_pred)
print(f"均方误差 (MSE): {
     mse:.2f}") # 均方误差 (MSE): 0.81
print(f"R²: {
     r2:.2f}") # R²: 0.77

运行结果:

UnivariateLinearRegression

多元线性回归则扩展为:
y = β 0 + β 1 X 1 + β 2 X 2 + ⋯ + β p X p y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \dots + \beta_p X_p y=β0+β1X1+β2X2++βpXp

  • X1,X2,…,Xp:多个输入特征。
  • β1,β2,…,βp:各特征的权重。
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score

# 生成示例数据
np.random.seed(42)
X_multi = 2 * np.random.rand(100, 2)
y_multi = 4 + 3 * X_multi[:, 0] + 5 * X_multi[:, 1] + np.random.randn(100)

# 创建并训练模型
model = LinearRegression()
model.fit(X_multi, y_multi)
y_pred_multi = model.predict(X_multi)

# 模型评估
mse_multi = mean_squared_error(y_multi, y_pred_multi)
r2_multi = r2_score(y_multi, y_pred_multi)
print(f"多元回归均方误差 (MSE): {
     mse_multi:.2f}")
print(f"多元回归 R²: {
     r2_multi:.2f}")

# 输出参数
print(f"截距 (β0): {
     model.intercept_:.2f}")
print(f"权重 (β1, β2): {
     model.coef_}")

输出:

多元回归均方误差 (MSE
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一点一木

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值