
Pytorch
文章平均质量分 51
ChrisTiger22
这个作者很懒,什么都没留下…
展开
-
pytorch学习笔记(一) autograd
学了大概一个月时间的pytorch和tensorflow,觉得pytorch写法比tf更简单,也更灵活。不需要通过session来run到结果,数据可以轻松地在cpu和gpu之间切换。pytorch的一个最重要的机制就是autograd机制,通过这个机制你可以轻易的固定你的模型的部分参数,从而在训练中只是训练你希望训练的那部分计算图。在pytorch中有两个类型的变量,一个是tensor,原创 2017-10-31 10:59:02 · 2572 阅读 · 0 评论 -
pytorch学习笔记(二) 其他机制
broadcast机制pytroch中的tensor和numpy中的ndarray一样是支持broadcast的。支持原则是:1.两个tensor都至少有一维2.从最后一维开始,要么其中一个tensor的维数等于1,要么两个维数相同。CUDA语法pytorch可以通过一行代码实现数据在GPU和CPU之间的切换,并且在网络训练过程中,你可以随时将数据从GPU中拿出来进行操原创 2017-11-01 10:49:44 · 1342 阅读 · 0 评论 -
Pytorch学习笔记(三)线性回归与逻辑回归
在了解了Pytorch的一些机制后,当然要进行一些实例的学习,毕竟实践出真知嘛。 对于所有的机器学习爱好者来说,第一个要学的模型无疑是线性回归 所谓线性回归,指的就是用对输入数据的每个维度进行线性组合拟合Label-y。最简单的线性回归即是二维平面内的直线拟合。为此我们可以编造一些数据:import torchimport torch.nn as nnimport numpy as npi原创 2017-11-19 23:00:54 · 2316 阅读 · 0 评论