
pyTorch
一抹烟霞
这个作者很懒,什么都没留下…
展开
-
PyTorch——(8) 正则化、动量、学习率、Dropout、BatchNorm
文章目录正则化L-1正则化实现L-2正则化动量学习率衰减当loss不在下降时的学习率衰减固定循环的学习率衰减DropoutBatch Norm正则化L-1正则化实现PyTorch没有L-1正则化,所以用下面的方法自己实现L-2正则化一般用L-2正则化weight_decay 表示λ\lambdaλ动量moment参数设置上式中的β\betaβ,表式上一时刻梯度所占的比例0~1之间学习率衰减当loss不在下降时的学习率衰减固定循环的学习率衰减DropoutDropout原创 2021-04-28 18:47:32 · 520 阅读 · 0 评论 -
PyTorch——(7) MNIST手写数字识别实例
网络结构代码import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsbatch_size=200learning_rate=0.01epochs=10# 下载数据train_loader = torch.utils.data.DataLoader( datas原创 2021-04-26 22:01:04 · 159 阅读 · 0 评论 -
PyTorch——(6)2D函数优化实例
最小值点有4个import numpy as npfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import pyplot as pltimport torchdef himmelblau(x): return (x[0] ** 2 + x[1] - 11) ** 2 + (x[0] + x[1] ** 2 - 7) ** 2# x = np.arange(-6, 6, 0.1)# y = np.arange(原创 2021-04-25 22:12:20 · 148 阅读 · 0 评论 -
PyTorch——(5)自动梯度计算
文章目录声明需要进行自动梯度进行自动梯度声明需要进行自动梯度未申明的变量将无法进行自动梯度申明方法有两种# 在创建完成后,申明自动梯度x = torch.ones(1)x.requires_grad()# 在创建时,就申明自动梯度w = torch.full([1],2,requires_grad=True)进行自动梯度也有两种方法其中loss必须是一个标量每次自动梯度后。图会被销毁,导致下次调用自动梯度失效,可以设置retain_graph= True保持图不被销毁...原创 2021-04-25 21:24:43 · 199 阅读 · 0 评论 -
pyTorch——(1)基本数据类型
文章目录torch.tensor()torch.FloatTensor()torch.empty()torch.zeros()torch.ones()torch.eye()torch.randn()torch.rand()torch.randint()torch.full()torch.normal()torch.arange()torch.linspace()torch.randperm()torch.from_numpy()x.item()isinstance数据类型检验torch.tensor()原创 2021-04-25 16:59:53 · 210 阅读 · 1 评论