
pytorch框架
有关pytorch框架的学习
月臻
stay foolish,stay hungry!
展开
-
PyTorch 学习笔记(十二):强化学习算法之DQN及其变种
这篇文章是我在知乎上写的,由于里面有大量公式,所以如何移植过来的话需要手动编辑格式,太麻烦了。。。。我就直接贴个链接,想看的可以点进去看:PyTorch 学习笔记(十二):强化学习算法之DQN及其变种...原创 2019-11-09 14:56:13 · 1823 阅读 · 1 评论 -
PyTorch 学习笔记(十):初识生成对抗网络(Generative Adversarial Networks,GANs)
2014年,深度学习三巨头之一Ian Goodfellow提出了生成对抗网络(Generative Adversarial Networks,GANs)这一概念,刚开始并没有引起轰动,直到2016年,学界、业界对它的兴趣如“井喷”一样爆发,多篇重磅文章陆续发表,Lecun这样形容GANs“adversarial training is the coolest thing since sliced ...原创 2019-06-05 00:16:15 · 1036 阅读 · 0 评论 -
PyTorch 学习笔记(九):自动编码器(AutoEncoder)
一. 生成模型生成模型(Generative Model)这一概念属于概率统计与机器学习,是指一系列用于随机生成可观测预测数据得模型。简而言之,就是 “生成” 的样本和 “真实” 的样本尽可能地相似。生成模型的两个主要功能就是学习一个概率分布Pmodel(X)P_{model}(X)Pmodel(X)和生成数据,这是非常重要的,不仅可以用在无监督学习中,还可以用在监督学习中。无监督学习的发展...原创 2019-06-01 16:16:39 · 32694 阅读 · 5 评论 -
PyTorch 学习笔记(八):图像增强、ResNet完成Cifar10分类
一. 图像增强的方法一直以来,图像识别这一计算机视觉的核心问题都面临很多挑战,同一个物体在不同情况下都会得出不同的结论。对于一张图片,我们看到的是一些物体,而计算机看到的是一些像素点。如果拍摄照片的照相机位置发生了改变,那么拍得的图片对于我们而言,变化很小,但是对于计算机而言,图片得像素变化是很大得。拍照时得光照条件也是很重要的一个影响因素:光照太弱,照片里的物体会和背景融为一体,它们的像素点...原创 2019-04-24 18:54:57 · 1969 阅读 · 0 评论 -
PyTorch 学习笔记(六):卷积神经网络概念(从头梳理一遍卷积神经网络的演变史),提取层结构,自定义初始化
一. 卷积神经网络的原理和结构在介绍卷积神经网络之前,先提出三个观点,正是这三个观点使得卷积神经网络能够真正起作用。1. 局部性对于一张图片而言,需要检测图片中的特征来决定图片的类别,通常情况下这些特征都不是由整张图片来决定的,而是由一些局部的区域来决定的。比如下图4.1中的鸟啄,该特征只存在于图片的局部中。2. 相同性对于不同的图片,如果它们具有同样的特征,这些特征会出现在图片的不...原创 2019-04-24 00:53:44 · 1810 阅读 · 0 评论 -
PyTorch 学习笔记(七):卷积神经网络案例分析——AlexNet、VGGNet、GoogLeNet、ResNet
我写这篇的目的主要是想熟悉一下PyTorch搭建模型的方法。一. AlexNet五个卷积层加3个全连接层,话不多说,直接上代码:import torchfrom torch import nnfrom torchstat import statclass AlexNet(nn.Module): def __init__(self, num_classes): ...原创 2019-04-24 13:01:14 · 2668 阅读 · 0 评论 -
PyTorch 学习笔记(五):多层全连接网络实现MNIST手写数字分类
先来介绍几个比较重要的函数1. torch.nn.CrossEntropyLoss()函数交叉熵损失函数,在pytorch中若模型使用CrossEntropyLoss这个loss函数,则不应该在最后一层再使用softmax进行激活,因为CrossEntropyLoss函数包括了softmax和计算交叉熵两个过程。分析实例:https://www.jianshu.com/p/e184663e2...原创 2019-04-22 21:24:25 · 1929 阅读 · 0 评论 -
PyTorch 学习笔记(四):激活函数对比、权重初始化、防止过拟合的方法
一. 激活函数如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。1. SigmoidSigmoid非线性函数的数学表达式是σ(x)=11+e−x\sigma (x)=\frac{1}{1+e^{-x}}σ(x)=1...原创 2019-04-22 14:16:28 · 5595 阅读 · 0 评论 -
PyTorch 学习笔记(三):线性回归、logistic回归
通过前面两篇笔记的学习已经基本了解了PyTorch里面的基本处理对象、运算操作、自动求导、以及数据处理方法、模型的保存和加载等基础知识。下来就是实战部分了。一. 线性回归1. 一维线性回归给定数据集 D={(x1,y1),(x2,y2),(x3,y3),...,(xm,ym)}D=\left \{ (x_{1},y_{1}),(x_{2},y_{2}),(x_{3},y_{3}),...,(...原创 2019-04-21 21:14:31 · 1343 阅读 · 0 评论 -
PyTorch 学习笔记(二):张量、变量、数据集的读取、模组、优化、模型的保存和加载
一. 张量PyTorch里面最基本的操作对象就是Tensor,Tensor是张量的英文,表示的是一个多维的矩阵,比如零维就是一个点,一维就是向量,二维就是一般的矩阵,多维就相当于一个多维的数组,这和numpy是对应的,而且PyTorch的Tensor和numpy的ndarray可以相互转换,唯一不同的是PyTorch可以在GPU上运行,而numpy的ndarray只能在CPU上运行。我们先介绍...原创 2019-04-21 14:56:18 · 6151 阅读 · 1 评论 -
PyTorch 学习笔记(一):简介
听了很多朋友的安利,然后我也蠢蠢欲动的想来试一下pytorch的水有多深!所以试水第一步:给我的pycharm装上pytorch,这个就不说了,网上教程很多,自己搜。下面的内容主要是廖星宇编著的《深度学习入门之PyTorch》这本书上的简介内容。一. 各种主流框架的对比Tensorflow:首先要介绍的就是Google 开源的Tensorflow,这是一款使用C++语言开发的开源数学计算软件...原创 2019-04-20 23:30:21 · 3677 阅读 · 0 评论 -
PyTorch 学习笔记(十一):循环神经网络(RNN)
对于人类而言,以前见过的事物会在脑海中留下记忆,虽然随后记忆会慢慢消失,但是每当经过提醒,人们往往可以重拾记忆。在神经网络中也是一样,之前介绍的CNN模型都是与时间序列无关的模型,它有明显的局限性,就是只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。所以接下来要介绍一种在序列问题和自然语言处理等领...原创 2019-09-02 21:11:53 · 4639 阅读 · 0 评论