02.梯度下降解多元线性回归

本文介绍了一种用于求解线性回归问题的梯度下降法,并通过实例演示了该算法的具体实现过程。详细展示了如何通过迭代更新参数来最小化代价函数。

每次迭代时间复杂度O(m*n)

#include<bits/stdc++.h>
#define ll long long
using namespace std;
const double eps=1e-10;

double * solve(double x[][10],double y[],int m,int n)//输入数组x,y训练集大小m,特征数量n
{
  static double theta[10];
  double alpha=0.01;
  double tmp[10];
  for(int i=1;i<=m;i++)
  x[i][0]=1.0;
  for(int i=0;i<=n;i++)
  {
    theta[i]=0.0;
  }
  /*for(int i=1;i<=m;i++)
  {
  	for(int j=0;j<=n;j++)
  	cout<<x[i][j]<<" ";
  	cout<<endl;
  }*/  
  //int t=100;
  while(1)
  {
  	double ans[10];
  	for(int i=1;i<=m;i++)
  	{
  	  ans[i]=0.0;
  	  for(int j=0;j<=n;j++)
  	  {
  		ans[i]=1.0*ans[i]+x[i][j]*theta[j];
	  }
	}
  	
	for(int i=0;i<=n;i++)
	{
	  tmp[i]=0.0;
	  for(int j=1;j<=m;j++)
	  {
		tmp[i]=1.0*tmp[i]+1.0*x[j][i]*(ans[j]-y[j]);
		if(i==0)
		cout<<" "<<ans[j]<<" "<<y[j]<<endl;
	  }
	}
	
	int tm;
	for(tm=0;tm<=n;tm++)
	{
		if(abs(tmp[tm])>eps)
		break;
	}
	if(tm>n)
	{
		break;
	}
	for(int i=0;i<=n;i++)
  	cout<<theta[i]<<" ";
  	cout<<endl;
  	for(int i=0;i<=n;i++)
  	cout<<tmp[i]<<" ";
  	cout<<endl<<endl;
  	
	for(tm=0;tm<=n;tm++)
	{
		theta[tm]=1.0*theta[tm]-1.0*alpha*tmp[tm]/(1.0*m);
	}
  }
  return theta;
}
int main()
{
  double x[15][10],y[15];
  int m=5,n=5;
  x[1][1]=1;x[1][2]=1;x[1][3]=2;x[1][4]=-1;x[1][5]=-3;
  x[2][1]=2;x[2][2]=1;x[2][3]=2;x[2][4]=-1;x[2][5]=-3;
  x[3][1]=3;x[3][2]=4;x[3][3]=1;x[3][4]=-4;x[3][5]=-2;
  x[4][1]=1;x[4][2]=0;x[4][3]=1;x[4][4]=-1;x[4][5]=-3;
  x[5][1]=1;x[5][2]=1;x[5][3]=2;x[5][4]=-2;x[5][5]=-3;
  
  y[1]=2;
  y[2]=3;
  y[3]=4;
  y[4]=0;
  y[5]=1;
  double * theta;
  theta=solve(x,y,m,n);
  for(int i=0;i<=n;i++)
  cout<<theta[i]<<endl;
  return 0;
}


### 多元线性回归梯度下降实现 多元线性回归是一种扩展的一维线性回归模型,其目标是找到多个自变量 \(X_1, X_2, \dots, X_n\) 和因变量 \(Y\) 的最佳拟合平面。为了实现这一目标,可以采用梯度下降算法优化参数。 以下是基于 Python 使用梯度下降法实现多元线性回归的具体方法: #### 数据预处理 在实际应用中,原始数据可能具有不同的量纲和范围,因此需要对其进行标准化或归一化处理[^2]。这一步骤有助于提高梯度下降的收敛速度并减少迭代次数。 ```python import numpy as np from sklearn.preprocessing import StandardScaler def preprocess_data(X): scaler = StandardScaler() X_scaled = scaler.fit_transform(X) return X_scaled, scaler ``` #### 假设函数与代价函数 假设函数的形式为: \[ h_\theta(x) = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + \cdots + \theta_n x_n \] 其中,\(h_\theta(x)\) 是预测值,\(\theta_i\) 表示权重向量中的第 i 个元素。对于给定的数据集,可以通过矩阵形式表示上述公式[^3]。 代价函数用于衡量预测值与真实值之间的差异,通常定义为均方误差 (MSE),即: \[ J(\theta) = \frac{1}{2m} \sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})^2 \] #### 梯度下降更新规则 梯度下降的核心在于不断调整参数以减小代价函数值。具体而言,每次迭代按照以下方式更新参数: \[ \theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j} J(\theta) \] 其中,\(\alpha\) 是学习率,控制每步更新的幅度;偏导数项决定了参数调整的方向和大小[^1]。 #### 完整代码实现 下面是一个完整的 Python 实现,展示了如何利用梯度降解多元线性回归问题。 ```python class LinearRegressionGD: def __init__(self, learning_rate=0.01, epochs=1000): self.learning_rate = learning_rate self.epochs = epochs self.theta = None def fit(self, X, y): m, n = X.shape # 初始化参数 theta self.theta = np.zeros(n + 1) # 添加截距列 ones_column = np.ones((m, 1)) X_b = np.c_[ones_column, X] for _ in range(self.epochs): gradients = (1 / m) * X_b.T.dot(X_b.dot(self.theta) - y) self.theta -= self.learning_rate * gradients def predict(self, X): ones_column = np.ones((X.shape[0], 1)) X_b = np.c_[ones_column, X] return X_b.dot(self.theta) # 示例用法 if __name__ == "__main__": from sklearn.datasets import make_regression from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt # 创建模拟数据 X, y = make_regression(n_samples=100, n_features=2, noise=0.1, random_state=42) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 归一化特征 X_train_scaled, scaler = preprocess_data(X_train) X_test_scaled = scaler.transform(X_test) model = LinearRegressionGD(learning_rate=0.01, epochs=5000) model.fit(X_train_scaled, y_train) predictions = model.predict(X_test_scaled) # 可视化部分结果 plt.scatter(y_test, predictions) plt.xlabel("True Values") plt.ylabel("Predictions") plt.title("True vs Predicted Values") plt.show() ``` 此代码实现了从零构建的梯度下降算法,并将其应用于多维输入数据上。注意,在运行之前需确保安装必要的库(如 `numpy` 和 `matplotlib`)。 --- ####
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值