
PyTorch笔记
文章平均质量分 92
PyTorch学习笔记
数据科学家修炼之道
Life is short, I use Python、Scala、Java、R、Julia、Spark、Flink、Matlab、Spss、Stata、Sas、ML and DL.
展开
-
Pytorch笔记——3、Pytorch实现线性回归
在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,会导致我们很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用Tensor和autograd来实现一个线性回归的训练。import torchfrom IPython import displayfrom matplotlib import pyplot as pltimport numpy as npimport random生成数据集n_samples原创 2021-05-26 07:08:12 · 273 阅读 · 2 评论 -
Pytorch笔记——2、Pytorch自动求梯度
在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。本节将介绍如何使用autograd包来进行自动求梯度的有关操作使用方法将 tensor的属性.requires_grad设置为True,它将开始追踪在其上的所有操作(这样就可以利用链式法则进行梯度传播了)完成计算后,可以调用.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad属性中如果不想要被继续追踪,可以调用.de原创 2021-05-26 07:06:48 · 419 阅读 · 0 评论 -
Pytorch笔记——1、张量的基本操作
文章目录张量的简要介绍如何创建一个张量创建一个空的张量创建一个0张量创建一个随机张量根据现有数据创建`Tensor`根据现有`Tensor` 创建`Tensor`更多创建Tensor的方法张量的属性tensor.dtypetensor.devicetensor.layouttensor.shape张量的算术操作加法其他算术操作张量的索引改变张量的形状 & 拷贝张量张量的线性代数运算张量的广播机制节省张量计算时的内存开销张量、numpy和list张量 on GPU张量的简要介绍在Pytorch中,原创 2021-05-26 06:55:31 · 1127 阅读 · 0 评论