AI 九、Python中,PyTorch基础与应用

PyTorch是一个开源的深度学习框架,广泛应用于学术研究和工业实践中,特别是在计算机视觉(CV)、自然语言处理(NLP)以及强化学习等领域。它以动态图计算(dynamic computation graph)为特点,支持自动求导(autograd),并且具有强大的GPU加速能力。PyTorch的灵活性和易用性使得它成为了许多机器学习工程师和研究者的首选框架。

1. PyTorch基础

1.1 Tensor(张量)

在PyTorch中,Tensor是核心数据结构,类似于NumPy的ndarray,但提供了更多的功能,如GPU加速和自动求导。

创建Tensor

import torch

# 创建一个从0到9的Tensor
a = torch.arange(10)
print(a)

# 创建一个5x5的零矩阵
b = torch.zeros(5, 5)
print(b)

# 创建一个5x5的随机矩阵
c = torch.rand(5, 5)
print(c)

# 使用GPU(CUDA)创建Tensor
d = torch.ones(2, 2, device='cuda')
print(d)
1.2 Tensor运算

PyTorch提供了丰富的操作,可以在Tensor上进行加法、乘法等操作。

x = torch.tensor([1, 2, 3], dtype=torch.float32)
y = torch.tensor([4, 5, 6], dtype=torch.float32)

# 加法
z1 = x + y
print(z1)

# 矩阵乘法(点乘)
z2 = torch.dot(x, y)
print(z2)

# 逐元素相乘
z3 = x * y
print(z3)
1.3 自动求导(Autograd)

PyTorch的自动求导机制允许你自动计算梯度,特别适用于训练深度学习模型。

# 创建一个张量,启用梯度计算
x = torch.ones(2, 2, requires_grad=True)

# 对张量进行计算
y = x + 2
z = y * y * 3

# 计算梯度
z.mean().backward()

# 打印梯度
print(x.grad)
1.4 神经网络(nn模块)

PyTorch的torch.nn模块是用于构建神经网络的核心模块。它提供了各种层、激活函数以及优化器等功能。

import torch.nn as nn

# 定义一个简单的神经网络
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(3, 3)  # 输入3,输出3
        self.relu = nn.ReLU()

    def forward(self, x):
        x = self.fc1(x)
        x = self.relu(x)
        return x

# 创建一个网络实例
model = SimpleNN()

# 创建输入数据
input_data = torch.tensor([1.0, 2.0, 3.0])

# 前向传播
output = model(input_data)
print(output)

2. PyTorch应用

2.1 线性回归

线性回归是一个简单的回归任务,可以帮助我们了解PyTorch的基础使用。

import torch
import torch.nn as nn
import torch.optim as optim

# 创建数据集
x_train = torch.tensor([[1.0], [2.0], [3.0], [4.0]])
y_train = torch.tensor([[2.0], [4.0], [6.0], [8.0]])

# 创建线性回归模型
class LinearRegression(nn.Module):
    def __init__(self):
        super(LinearRegression, self).__init__()
        self.linear = nn.Linear(1, 1)  # 输入1,输出1

    def forward(self, x):
        return self.linear(x)

# 创建模型实例
model = LinearRegression()

# 定义损失函数和优化器
criterion = nn.MSELoss()  # 均方误差损失函数
optimizer = optim.SGD(model.parameters(), lr=0.01)  # 使用随机梯度下降优化

# 训练模型
for epoch in range(1000):
    # 前向传播
    y_pred = model(x_train)

    # 计算损失
    loss = criterion(y_pred, y_train)

    # 反向传播和优化
    optimizer.zero_grad()  # 清除之前的梯度
    loss.backward()  # 计算梯度
    optimizer.step()  # 更新参数

    if (epoch+1) % 100 == 0:
        print(f"Epoch [{epoch+1}/1000], Loss: {loss.item():.4f}")

# 查看训练后的模型参数
print(f"Trained model parameters: {model.linear.weight.item()}, {model.linear.bias.item()}")
2.2 图像分类

PyTorch特别适合处理图像数据,通过与torchvision结合,可以轻松实现图像分类任务。

pip install torchvision
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

# 定义数据转换
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.5,), (0.5,))
])

# 下载和加载MNIST数据集
trainset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True)

# 定义神经网络结构
class SimpleCNN(nn.Module):
    def __init__(self):
        super(SimpleCNN, self).__init__()
        self.conv1 = nn.Conv2d(1, 6, 5)  # 输入1通道,输出6通道,卷积核大小为5
        self.pool = nn.MaxPool2d(2, 2)  # 最大池化,大小为2
        self.fc1 = nn.Linear(6 * 12 * 12, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = x.view(-1, 6 * 12 * 12)  # 扁平化
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# 创建模型实例
model = SimpleCNN()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

# 训练模型
for epoch in range(2):  # 遍历数据集2次
    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        inputs, labels = data

        # 零梯度
        optimizer.zero_grad()

        # 前向传播 + 反向传播 + 优化
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # 打印损失
        running_loss += loss.item()
        if i % 2000 == 1999:  # 每2000个mini-batches打印一次
            print(f"[{epoch + 1}, {i + 1}] loss: {running_loss / 2000:.3f}")
            running_loss = 0.0

print("Finished Training")

3. 深度学习优化技巧

  • Batch Normalization:可以在每一层的输入中做归一化,帮助加速训练过程并减少过拟合。
  • 学习率调度:根据训练进度动态调整学习率,可以帮助避免局部最小值。
  • 正则化:如Dropout,L2正则化(权重衰减),用于减少模型的过拟合。
  • 预训练与微调:在大数据集上预训练模型,再对特定任务进行微调。

总结

  • PyTorch是一个灵活且功能强大的深度学习框架,适用于各类机器学习任务。
  • 基本操作:创建Tensor、进行矩阵运算、自动求导等。
  • 神经网络构建:利用torch.nn模块构建、训练神经网络。
  • 应用场景:从简单的线性回归到复杂的图像分类任务,PyTorch都能高效处理。

PyTorch的易用性和灵活性使得它成为研究和工业界广泛使用的深度学习框架。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

十方来财

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值