pytorch
文章平均质量分 92
·Tu me manques
歪,
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
函数介绍 (1)argparse (2)append (3)entend (4)model.train (5)model.eval(6)pickle.dump (7)pickle.load
- [ ] argparse- [ ] append() 和 entend()- [ ] model.train() 和 model.eval()- [ ] pickle.dump() 和 pickle.load()一、argparse1、定义:argparse是python标准库里面用来处理命令行参数的库2、代码:import argparse # 首先导入模块pa...原创 2020-02-05 19:15:45 · 417 阅读 · 0 评论 -
pytorch学习笔记 2.6 Optimizer 优化器
一、优化器Optimizer 加速神经网络训练(Speed Up Training) 越复杂的神经网络 , 越多的数据 , 使得在训练神经网络时花费的时间也就越多。 原因很简单, 是因为计算量太大了,所以我们需要寻找一些方法, 让神经网络的训练快起来。1、Stochastic Gradient Descent (SGD) 把数据分成小批小批的,然后再分批进行计算。每次使用批数据,虽然不能...原创 2020-02-05 09:50:52 · 313 阅读 · 0 评论 -
pytorch学习笔记 2.5 批训练
目的: 我们可以把数据全扔进去当作一批(Full Batch Learning), 也可以把数据分为好几批,分别扔进去Learning Model。分批训练,一是更好的处理非凸的损失函数;二是合理利用内存容量。DataLoader DataLoader 是 torch 中用来包装数据的工具,所以需要将自己的其他数据形式转换成 Tensor ,然后再放入这个包装器中,可以帮助有效的迭代。...原创 2020-02-04 21:51:18 · 194 阅读 · 0 评论 -
pytorch学习笔记 2.4 保存提取
目的:训练好了一个模型, 但是想要留到下次用,那么把模型保存下来就是最棒的选择!保存网络1、采用回归的神经网络举例实现保存提取。# 假数据x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), shape=(100, 1)y = x.pow(2) + 0.2*torch.rand(x.size...原创 2020-02-04 21:27:38 · 236 阅读 · 0 评论 -
pytorch学习笔记 2.3 Sequential 快速搭建法
目的:用更简单的方式去搭建同样的回归神经网络。【2.1 Regression 回归】快速搭建:1、回顾一下【2.1】的搭建方法,用 class 继承了一个 torch 中的神经网络结构,并对其进行了修改。class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): sup...原创 2020-02-04 20:34:20 · 235 阅读 · 0 评论 -
pytorch学习笔记 2.2 Classification 分类
目的:研究神经网络是如何进行事物的分类。步骤1:建立数据集首先创建一些假数据来模拟真实的情况,例如用两个均值不同的二次分布的数据。import torchimport matplotlib.pyplot as plt# 假数据n_data = torch.ones(100, 2) # 数据的基本形态x0 = torch.normal(2*n_data, 1) ...原创 2020-02-04 19:36:10 · 853 阅读 · 0 评论 -
pytorch学习笔记 2.1 Regression 回归
目的:研究神经网络是如何通过简单的形式将一群数据用一条线条来表示,即如何在数据中找到他们之间的关系,然后用神经网络模型来建立一个可以代表其关系的线条。步骤1:建立数据集首先创建一些假数据来模拟真实的情况,例如使用一个二元函数:y = a*x^2+b;并给数据 y 加上一点噪声;简单看一下这个图的样子import torchimport matplotlib.pyplot as plt...原创 2020-02-04 14:37:56 · 164 阅读 · 0 评论 -
pytorch学习笔记 1.3 激励函数(Activation Function)
一、什么是激励函数?1. 激励函数1、激励函数就是解决现实生活中不能用线性方程所概括的问题。2、对于线性问题,用 y = Wx 表示;对于非线性问题,用 y = AF(Wx) 表示3、AF 指激励函数,也就是非线性函数,将其嵌套在原有的结果上,强行把原有的线性结果扭曲,使得输出结果 y 也有了非线性的特征;例如:relu、sigmoid、tanh;4、可以创造自己的激励函数,但是激励函数...原创 2020-02-02 16:19:31 · 520 阅读 · 0 评论 -
pytorch学习笔记 1.2 Variable变量
神经网络的参数其实都是Variable变量的形式,把Tensor的数据信息放到Tensor的变量中,用变量来慢慢的更新自己的神经网络里面的一些参数一、Variable变量是什么?1、Variable就是 “变量” 的意思。实质上也就是可以变化的量,区别于int变量,它是一种可以变化的变量,这正好就符合了反向传播,参数更新的属性。2、在pytorch中的Variable就是一个存放 “可变化值...原创 2020-02-02 12:30:56 · 357 阅读 · 0 评论 -
pytorch学习笔记 1.1 numpy和torch对比
一、numpy和torch的简单介绍1、numpy系统是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵,numpy会把array放在CPU中加速运算。2、Torch自称为神经网络中的numpy。它会将torch产生的tensor放在GPU中加速运算。PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。二、numpy和torch...原创 2020-02-02 09:45:25 · 1218 阅读 · 0 评论
分享