Pytorch中(GPU-CPU)实现线性回归

部署运行你感兴趣的模型镜像

 

import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

# 用户选择设备
device_choice = input("请输入您希望使用的设备 (gpu 或 cpu):").strip().lower()
device = torch.device("cuda" if device_choice == "gpu" and torch.cuda.is_available() else "cpu")
print(f"选择的设备为:{device}")

# 数据生成
np.random.seed(0)
x = np.random.rand(10000, 1)
y = 2 * x + 1 + 0.1 * np.random.randn(10000, 1)
x_train = torch.tensor(x, dtype=torch.float32).to(device)
y_train = torch.tensor(y, dtype=torch.float32).to(device)

# 模型定义
class LinearRegressionModel(nn.Module):
    def __init__(self):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(1, 1)  # 一个输入和一个输出

    def forward(self, x):
        return self.linear(x)

model = LinearRegressionModel().to(device)

# 损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

# 训练过程
losses = []
num_epochs = 200
for epoch in range(num_epochs):
    model.train()
    optimizer.zero_grad()
    
    # 前向传播
    outputs = model(x_train)
    loss = criterion(outputs, y_train)
    
    # 反向传播和优化
    loss.backward()
    optimizer.step()
    
    losses.append(loss.item())
    
    if (epoch+1) % 10 == 0:
        print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 模型参数
w, b = model.linear.weight.item(), model.linear.bias.item()
print(f"模型参数 —— 权重: {w:.4f}, 偏置: {b:.4f}")

# 可视化损失变化
plt.figure(figsize=(12, 5))

plt.subplot(1, 2, 1)
plt.plot(losses)
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.title('Loss Trend')

# 绘制模型预测和实际数据对比
x_test = torch.tensor(np.linspace(0, 1, 100).reshape(-1, 1), dtype=torch.float32).to(device)
with torch.no_grad():
    y_pred = model(x_test).cpu().numpy()

plt.subplot(1, 2, 2)
plt.scatter(x, y, alpha=0.3, label='Actual data')
plt.plot(np.linspace(0, 1, 100), y_pred, color='red', label='Predicted line')
plt.xlabel('x')
plt.ylabel('y')
plt.title('Model Prediction vs Actual Data')
plt.legend()

plt.tight_layout()
plt.show()

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>嗯,用户想在PyCharm的PyTorch环境中写多元线性回归的代码。好的,我得先回忆一下多元线性回归的基本概念。线性回归就是用一个线性模型来拟合数据,多元的话就是有多个自变量对吧?那在PyTorch里,需要定义模型、损失函数和优化器,然后进行训练循环。 首先,用户可能对PyTorch不太熟悉,可能需要从安装环境开始?不过用户已经提到了PyCharm中的PyTorch环境,可能已经配置好了。但为了稳妥,可能需要提醒一下确保PyTorch已安装,比如用pip install torch这样的命令。不过用户可能不需要安装步骤,直接要代码。 然后,生成示例数据。通常多元线性回归需要多个特征,比如假设有3个特征,可以随机生成一些数据。比如用torch.randn来生成X,形状是样本数乘以特征数,然后设定真实的权重和偏置,加上一些噪声生成y。 接下来是定义模型。PyTorch的线性模型可以用nn.Linear,输入特征数是3,输出是1。然后定义损失函数,比如均方误差MSE,优化器选SGD或者Adam。学习率可能需要用户自己调整,比如0.01。 然后训练循环部分,需要迭代多个epoch,前向传播计算预测值,算损失,反向传播更新参数,还要记得清零梯度。可能还要每隔一定epoch打印损失,方便观察训练情况。 用户可能还需要评估模型,比如查看训练后的参数和真实值的差距。这部分需要比较model.weight和true_weights,model.bias和true_bias。 另外,代码的结构要清晰,可能需要完整的代码示例,包括导入库、生成数据、定义模型、训练和评估。同时,可能需要注释解释每一步的作用,帮助用户理解。 需要注意的点:数据标准化的问题,如果特征量纲差异大,可能需要标准化处理。但示例数据是随机生成的,可能不需要。另外,学习率和epoch次数可能需要根据情况调整,用户可能需要知道如何调试这些超参数。 还有,用户可能想知道如何在PyCharm中运行这段代码,是否需要特别的配置?比如解释器是否选对了,是否有GPU支持。但可能用户已经配置好了,所以可能不需要详细说明,除非用户遇到问题。 总结步骤:导入库、准备数据、定义模型、损失和优化器、训练循环、结果评估。每个部分用代码块展示,并加上中文注释,这样用户更容易理解。同时,解释关键点,比如为什么用MSELoss,优化器的作用,反向传播的步骤等。</think>好的,我将分步骤指导你在PyCharm中实现多元线性回归PyTorch代码。以下是完整的代码实现及说明: --- ### 1. **环境准备** 确保已安装`torch`库: ```bash pip install torch ``` --- ### 2. **完整代码** ```python # 导入库 import torch import torch.nn as nn import matplotlib.pyplot as plt # 设置随机种子保证可重复性 torch.manual_seed(42) # ====================== # 1. 生成模拟数据 # ====================== # 假设有3个特征 (n_features=3), 100个样本 n_samples = 100 n_features = 3 # 生成特征矩阵 X: (100, 3) X = torch.randn(n_samples, n_features) # 定义真实权重和偏置 (目标参数) true_weights = torch.tensor([[2.0], [-1.5], [3.2]]) # shape (3,1) true_bias = 4.7 # 生成带噪声的标签 y = X @ w + b + noise y = X @ true_weights + true_bias + torch.randn(n_samples, 1) * 0.5 # ====================== # 2. 定义线性回归模型 # ====================== class LinearRegression(nn.Module): def __init__(self, input_dim): super().__init__() self.linear = nn.Linear(input_dim, 1) # 输入维度=特征数,输出=1 def forward(self, x): return self.linear(x) model = LinearRegression(input_dim=n_features) # ====================== # 3. 定义损失函数和优化器 # ====================== criterion = nn.MSELoss() # 均方误差损失 optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 随机梯度下降 # ====================== # 4. 训练循环 # ====================== losses = [] # 记录损失变化 epochs = 500 for epoch in range(epochs): # 前向传播 predictions = model(X) loss = criterion(predictions, y) # 反向传播 optimizer.zero_grad() # 清空梯度 loss.backward() # 计算梯度 optimizer.step() # 更新参数 # 记录损失 losses.append(loss.item()) # 每50个epoch打印损失 if (epoch+1) % 50 == 0: print(f'Epoch [{epoch+1}/{epochs}], Loss: {loss.item():.4f}') # ====================== # 5. 结果可视化与评估 # ====================== # 绘制损失曲线 plt.plot(losses) plt.xlabel('Epoch') plt.ylabel('Loss') plt.title('Training Loss') plt.show() # 输出学习到的参数 print(f'\n真实权重: {true_weights.squeeze().numpy()}') print(f'模型权重: {model.linear.weight.data.numpy().squeeze()}\n') print(f'真实偏置: {true_bias}') print(f'模型偏置: {model.linear.bias.data.item():.2f}') ``` --- ### 3. **关键代码解析** 1. **数据生成** - 通过$X \in \mathbb{R}^{100 \times 3}$生成3个特征的模拟数据 - 标签计算为$y = Xw + b + \epsilon$,其中$\epsilon$为高斯噪声 2. **模型结构** - `nn.Linear(3,1)`表示单层全连接网络,数学表达式为: $$ \hat{y} = x_1w_1 + x_2w_2 + x_3w_3 + b $$ 3. **训练过程** - **前向传播**:计算预测值$\hat{y}$ - **损失计算**:使用MSE损失函数: $$ \text{MSE} = \frac{1}{n}\sum_{i=1}^n (y_i - \hat{y}_i)^2 $$ - **反向传播**:通过链式法则计算梯度 - **参数更新**:优化器根据梯度更新权重$w$和偏置$b$ --- ### 4. **预期输出** - 损失曲线应呈现下降趋势 - 模型参数应接近真实值: ``` 真实权重: [ 2. -1.5 3.2] 模型权重: [ 1.98 -1.48 3.18] 真实偏置: 4.7 模型偏置: 4.65 ``` --- ### 5. **常见问题处理** 1. **损失不下降** - 尝试降低学习率(`lr=0.001`) - 增加训练轮次(`epochs=1000`) 2. **GPU加速** 在代码开头添加: ```python device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') X = X.to(device) y = y.to(device) model = model.to(device) ``` 3. **真实数据应用** - 替换`X`和`y`为实际数据 - 建议对特征进行标准化: ```python X = (X - X.mean(dim=0)) / X.std(dim=0) ``` 如果遇到具体问题,可以进一步提供错误信息或需求细节,我会协助排查优化!
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值