
pytorch
文章平均质量分 78
虾米儿xia
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
pytorch学习日记(一)——之CIFAR10图像训练测试实战
神经网络NN编程实现,往往需要以下几个步骤: 1)定义NN,初始化NN的参数(权重和偏置) 2)准备好输入数据集 3)让输入通过NN,得到输出 4)计算输出和理想输出的loss 5)采用随机梯度下降方法(SGD),后向传播更新NN的权重和偏置,更新规则: weight = weight - learning_rate * gradient 下面,将根据这些步骤进行编程: 导入...原创 2018-07-29 11:25:19 · 9824 阅读 · 10 评论 -
pytorch学习日记(二)——之cv2,matplotlib,PIL比较及与Tensor的转换
用python进行图像处理中分别用到过matplotlib.pyplot、PIL、cv2三种库,这三种库图像读取和保存方法各异,并且图像读取时顺序也有差异,如plt.imread和PIL.Image.open读入的都是RGB顺序,而cv2.imread读入的是BGR顺序。使用时需要倍加注意。 1. cv2,matplotlib,PIL比较 读取图像 1.cv2.imread opencv读进...原创 2018-08-08 09:12:18 · 9045 阅读 · 3 评论 -
pytorch学习日记(三)——之Data Parallelism
PyTorch中使用了张量类型,而不用numpy的array,就是为了可以在GPU上运行代码,那我们怎么样才能使用GPUs来加速运行呢。其实非常简单,几条语句就可以完成了。 1. 基本语句 模型放到一个GPU上运行model.gpu() 将张量放到GPU上mytensor = my_tensor.gpu()注: 仅仅调用my_tensor.gpu()函数并不会将张量复制到GPU上,所以一定...原创 2018-08-08 10:38:21 · 684 阅读 · 0 评论 -
pytorch实战(一)之梯度下降实现
1.需求说明 我们首先随机生成N个数,再通过一个线性函数生成目标数据target,然后将这N个数据通过我们自定义的神经网络得到输出output,通过不断迭代更新w和b,最小化target和output的差值,以此来实现:输入最初产生的随机数据N,通过网络,得到近似线性函数生成的目标数据target。 2.编程实现 1)导入模块 import torch from torch.auto...原创 2018-09-02 15:03:05 · 6995 阅读 · 0 评论