PyTorch Lightning使用过程中的tips

从一开始学习这个框架之后,我慢慢的了解了很多这个框架的强大之处,不得不感叹一下它相对于PyTorch真香。在我们研究深度学习项目的过程中,确实要涉及到很多基本的tips,这些方法在传统的PyTorch中都是需要自己去实现的,而在pl中这些东西都得到优化,目前还在发掘中。具体方法查看官方文档。如果没接触过这个框架的可以看我上一篇文章。文章icon-default.png?t=N7T8https://blog.youkuaiyun.com/lzxsz_/article/details/140081429?spm=1001.2014.3001.5501

EarlyStopping

我们平时训练过程总要通过验证集的指标来评估这个模型的好坏,Early Stopping就是防止过拟合的方法之一,pl的callback模块封装了该方法,我们不需要自己再定义。

首先导入模块是必要的:

from pytorch_lightning.callbacks import EarlyStopping

然后我们在定义了Trainer之前呢,实例化EarlyStopping:

earlystopping = EarlyStopping('val_loss', patience=hparams.patience, min_delta=0.00, mode="min")

这里的参数解释一下,第一个是指定早停的指标,我这里是val_loss,第二个patience参数是指定多少个epoch指标没有更新,就实现早停,停止训练,min_delta参数为指标的更新大小,这里是0,最后一个参数就是更新的方向,val_loss显然是越小越好。

最后将该参数作为callback传递给Trainer:

PyTorch Lightning是一个用于训练和部署深度学习模型的轻量级框架。它基于PyTorch,提供了一种简单易用的方式来组织、管理和扩展PyTorch代码。 以下是PyTorch Lightning使用方法: 1. 安装PyTorch Lightning 可以通过以下命令安装PyTorch Lightning: ``` pip install pytorch-lightning ``` 2. 创建模型 创建一个PyTorch模型,继承`pl.LightningModule`类,并实现`training_step`、`validation_step`和`test_step`方法。例如: ```python import torch.nn as nn import torch.optim as optim import pytorch_lightning as pl class MyModel(pl.LightningModule): def __init__(self): super().__init__() self.fc1 = nn.Linear(28*28, 64) self.fc2 = nn.Linear(64, 10) self.loss_fn = nn.CrossEntropyLoss() def forward(self, x): x = x.view(x.size(0), -1) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return x def training_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('train_loss', loss) return loss def validation_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('val_loss', loss) return loss def test_step(self, batch, batch_idx): x, y = batch y_hat = self.forward(x) loss = self.loss_fn(y_hat, y) self.log('test_loss', loss) return loss def configure_optimizers(self): return optim.Adam(self.parameters(), lr=1e-3) ``` 3. 创建数据模块 创建一个`pl.LightningDataModule`类,实现`train_dataloader`、`val_dataloader`和`test_dataloader`方法,以加载训练、验证和测试数据。例如: ```python import torchvision.datasets as datasets import torchvision.transforms as transforms class MNISTDataModule(pl.LightningDataModule): def __init__(self, data_dir='./data'): super().__init__() self.data_dir = data_dir self.transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ]) def prepare_data(self): datasets.MNIST(self.data_dir, train=True, download=True) datasets.MNIST(self.data_dir, train=False, download=True) def train_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=True, transform=self.transform), batch_size=32, shuffle=True, num_workers=4 ) def val_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) def test_dataloader(self): return torch.utils.data.DataLoader( datasets.MNIST(self.data_dir, train=False, transform=self.transform), batch_size=32, shuffle=False, num_workers=4 ) ``` 4. 训练模型 使用`pl.Trainer`类训练模型。例如: ```python model = MyModel() data_module = MNISTDataModule() trainer = pl.Trainer(max_epochs=10, gpus=1) trainer.fit(model, data_module) ``` 5. 测试模型 使用`pl.Trainer`类测试模型。例如: ```python trainer.test(model, data_module) ``` 以上就是PyTorch Lightning使用方法。通过使用PyTorch Lightning,可以更加方便地组织和管理PyTorch代码,并实现更加高效的训练和部署。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值