强化学习——Pytorch
nonono吧
菜的抠jio
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch学习(7)-损失函数
本节主要是关于几种损失函数的学习。原创 2020-06-09 08:44:41 · 3759 阅读 · 4 评论 -
Pytorch实战(1)-Mnist手写数据集 (作为实战入门)
主要是使用LeNet进行手写数字识别。一、介绍LeNet网络结构图详细展开它的输入尺寸是32×32。重点介绍一下卷积层、池化层和全连接层卷积层:通过卷积运算,可以使原信号特征增强,并且降低噪音。# ------------------------------------------------------------------解析代码:nn.Conv2d(1, 6...原创 2020-02-14 17:14:42 · 1216 阅读 · 0 评论 -
Pytorch学习(6)-神经网络工具箱nn
nn模块是构建于autograd之上的神经网络模块。(autograd实现了自动微分系统)1.1、nn.Module 由于使用autograd可实现深度学习模型,但是其抽象程度较低,用来实现深度学习模型,则需要编写的代码量极大。因此torch.nn产生了,其是专门为深度学习设计的模块。torch.nn的核心数据结构是Module,它是一个抽象的概念,既可以表示神经网络中...原创 2020-02-02 19:55:40 · 615 阅读 · 0 评论 -
Pytorch学习(5)-用Variable实现线性回归
利用autograd/Variable实现线性回归,体会autograd的便捷之处。from __future__ import print_functionimport torch as tfrom torch.autograd import Variable as Vfrom torch.autograd import Functionfrom matplotlib import...原创 2020-02-02 16:09:09 · 458 阅读 · 0 评论 -
Pytorch学习(4)-Autograd
Autograd(torch.autograd):一套自动求导引擎,可以根据输入和前向传播过程自动构建计算图,并执行反向传播。计算图(Computation Graph)是现代深度学习框架(如PyTorch和Tensorflow等)的核心,它为自动求导算法——反向传播(Back Propogation)提供了理论支持。一、Variable PyTorch在autog...原创 2020-01-29 19:01:34 · 421 阅读 · 0 评论 -
Pytorch学习(3)- 线性回归
线性回归利用数理统计中的回归分析来确定两种或两种以上变量间相互依赖的定量关系,其表达式为: y = w*x + b + e,误差e服从均值0的正态分布。线性回归的损失函数是: 利用随机梯度下降法更新参数w和b来最小化损失函数,最终学得w和b的数值。...原创 2020-01-28 19:06:07 · 409 阅读 · 0 评论 -
Pytorch学习(2)- tensor
Tensor:张量,可以是标量(一个数)、向量(一维数组)、矩阵(二维数组)或者更高维的数组。它与numpy和ndarrays相似,但是PyTorch的tensor支持GPU加速。一、tensor分类从接口的角度分类 torch.function 如torch.save() tensor.function 如tensor.view() 从存储的角...原创 2020-01-28 15:33:51 · 1014 阅读 · 0 评论 -
Pytorch学习(1)
首先是开发环境的配置,python37+windows+pycharm,之前想试着弄jupty notebook,但是cuda太慢了.使用了清华源,还是无法加载torchvision,所以我放弃了,从而使用pycharm.通过一个例子(CIFAR-10)来入门使用torchvision加载并预处理CIFAR-10数据集 定义网络 定义损失函数和优化器 训练网络并更新网络参数 测...原创 2020-01-25 20:11:49 · 351 阅读 · 0 评论
分享