
Pytorch学习
文章平均质量分 78
Tiiktak
这个作者很懒,什么都没留下…
展开
-
树莓派4B安装Pytorch, torchvision(附已编译安装包)
树莓派4B安装Pytorch, torchvisionInstall PytorchRaspberry Pi 4BLinux raspberrypi 4.19.75-v7l+ #1270 SMP Tue Sep 24 18:51:41 BST 2019 armv7l GNU/Linux2G RAM16G DISK增加交换内存关闭内存交换: sudo dphys-swapfile swapoff修改配置文件 sudo vim /etc/dphys-swapfile,设置CONF.原创 2021-05-12 11:45:37 · 3554 阅读 · 3 评论 -
AlexNet分类Fashi-MNIST(Pytorch实现)
欢迎访问我的博客:konosuba.xyz这个notebook也同时发表在Kaggle上Fashion MNIST数据集LabelClass0T-shirt/top1Trouser2Pullover3Dress4Coat5Sandal6Shirt7Sneaker8Bag9Ankle boot...原创 2020-03-08 23:02:02 · 1128 阅读 · 0 评论 -
循环神经网络RNN以及几种经典模型
RNN简介现实世界中,很多元素都是相互连接的,比如室外的温度是随着气候的变化而周期性的变化的、我们的语言也需要通过上下文的关系来确认所表达的含义。但是机器要做到这一步就相当得难了。因此,就有了现在的循环神经网络,他的本质是:拥有记忆的能力,并且会根据这些记忆的内容来进行推断。因此,他的输出就依赖于当前的输入和记忆。网络结构及原理循环神经网络的基本结构特别简单,就是将网络的输出保存在一个记忆单...原创 2020-02-20 21:35:32 · 17987 阅读 · 0 评论 -
卷积神经网络CNN以及几种经典模型
简介CNN -> Convolutional Neural Network卷积神经网络是由一个或多个卷积层和顶端的全连通层(也可以使用1x1的卷积层作为最终的输出)组成的一种前馈神经网络基本概念局部感受野(Local Receptive Fields)一般的神经网络往往会把图像的每一个像素点连接到全连接的每一个神经元中,而卷积神经网络则是把每一个隐藏节点只连接到图像的某个局部区...原创 2020-02-19 11:06:22 · 6114 阅读 · 1 评论 -
Pytorch中的激活函数
介绍神经网络的时候已经说到,神经元会对化学物质的刺激进行,当达到一定程度的时候,神经元才会兴奋,并向其他神经元发送信息。神经网络中的激活函数就是用来判断我们所计算的信息是否达到了往后面传输的条件。为什么激活函数都是非线性的因为如果使用线性的激活函数,那么input跟output之间的关系始终为线性的,这样完全可以不使用网络结构,直接使用线性组合即可。所以需要激活函数来引入非线性因素,使得神经...原创 2020-02-17 01:23:08 · 911 阅读 · 0 评论 -
Pytorch中的梯度下降及优化
在PyTorch中使用Mini-batch这种方法进行训练Mini-batch的梯度下降法对整个训练集进行梯度下降法的时候,我们必须处理整个训练数据集,然后才能进行一步梯度下降,即每一步梯度下降法需要对整个训练集进行一次处理,如果训练数据集很大的时候处理速度会很慢,而且也不可能一次的载入到内存或者显存中所以我们会把大数据集分成小数据集,一部分一部分的训练,这个训练子集即称为Mini-batc...原创 2020-02-16 01:05:10 · 1517 阅读 · 0 评论 -
Pytorch中的损失函数Loss Function
由于Pytorch中使用mini-batch进行计算,因此其损失函数的计算结果会对mini-batch取平均常见的Pytorch中内置的损失函数有:nn.L1Loss计算input与output的差的绝对值,input与output应该是同一维度,得到的loss也是相应维度nn.NLLLossNegative Log Likelihoodclass torch.nn.NLLLos...原创 2020-02-16 01:03:51 · 1388 阅读 · 0 评论 -
Pytorch_linear
Linear对输入数据应用线性变换:y = xA^T + btorch.nn.Linear(in_features, out_features, bias=True)参数in_features 每个输入样本的大小out_features 每个输出样本的大小bias 若为False,layer不会学习附加偏差bshape输入: (N, ∗, H_in),其中 ∗ 代表任意数...原创 2020-02-14 02:40:27 · 163 阅读 · 0 评论 -
Pytorch_torchvision
torchvision.datasets这其中所有的数据集都是torch.utils.data.Dataset的子类,它们都具有__getitem__和__len__实现的方法。因此,它们都可以传递给torch.utils.data.DataLoader,它使用torch.multiprocessing并行加载多个样本。torchvision.transforms其中都是常见的图像转换,可以...原创 2020-02-14 02:39:39 · 410 阅读 · 0 评论 -
Pytorch_nn.Conv2d
Conv2dtorch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')in_channels 输入数据通道数out_channels 输出数据通道数kennel_size 卷...原创 2020-02-14 02:38:56 · 191 阅读 · 0 评论 -
Pytorch学习笔记_4_训练一个分类器
关于数据一般来说,对于图像、文本、音频或视频数据,可以使用标准的Python包来将这些数据加载为numpy array,之后可以将这些array转换为torch.*Tensor对于图像,Pillow、OpenCV包音频,scipy、librosa包文本,可以使用原始Python和Cython加载,或NLKT和SpaCy特别的,对于视觉任务,有一个包torchvision,其中包含了处...原创 2020-02-14 02:38:10 · 243 阅读 · 0 评论 -
Pytorch学习笔记_3_构建一个神经网络
Neural Networks神经网络可以通过使用torch.nn包来创建nn依赖于autograd来定义模型并求导。一个nn.Module类包含各个层和一个forward(input)前向传播方法,该方法返回output例如这个分类数字图像的网络:这是个简单的前馈神经网络,它接受一个输入,然后一层接一层的传递,最后输出计算结果一个神经网络的典型训练过程:定义包含...原创 2020-02-14 02:35:52 · 302 阅读 · 0 评论 -
Pytorch学习笔记_2_Autograd自动求导机制
Autograd 自动求导机制PyTorch 中所有神经网络的核心是 autograd 包。autograd 包为张量上的所有操作提供了自动求导。它是一个在运行时定义的框架,可以通过代码的运行来决定反向传播的过程,并且每次迭代可以是不同的。通过一些示例来了解Tensor 张量torch.tensor是这个包的核心类。设置.requires_grad为True,会追踪所有对于该张量的操...原创 2020-02-14 02:33:38 · 251 阅读 · 0 评论 -
Pytorch学习笔记_1_tensor张量
TensorsTensors与Numpy中的ndarrays类似torch.new_* 与 torch.*_like前者创建的对象会保持原有的属性(如dtype),但shape不同>>> x = torch.zeros(5, 3, dtype=torch.double)>>> x.new_ones(2, 3)tensor([[1., 1., 1.],...原创 2020-02-14 02:31:27 · 136 阅读 · 0 评论