
pytorch学习
笃静悟初
这个作者很懒,什么都没留下…
展开
-
Pytorch学习之常用函数
Tensor.permute()作用:高维转置permute可以对任意高维矩阵进行转置.但没有 torch.permute() 这个调用方式, 只能 Tensor.permute()。 torch.rand(2,3,4,5).permute(3,2,0,1).shape Out: torch.Size([5, 4, 2, 3])Tensor.transpose()...原创 2019-05-27 20:32:24 · 120 阅读 · 0 评论 -
Pytorch快速入门注意点
难点函数名后面带下划线_的函数会修改Tensor本身。例如x.add_(y)和x.t_()会改变x,但是x.add(y)和x.t()会返回一个新的Tensor,而x不变用torch.numpy()和torch.from_numpy()转化后的Tensor和numpy对象共享内存,如果其中一个改变,另一个也会随之改变...原创 2019-05-30 16:34:25 · 146 阅读 · 0 评论 -
pytorch程序调试
问题:RuntimeError: reduce failed to synchronize: device-side assert triggered原创 2019-05-27 22:34:23 · 683 阅读 · 0 评论 -
pytorch指定gpu运行
直接在终端中 指定编号为1(默认从0开始)的GPU: CUDA_VISIBLE_DEVICES=1 python xxx.py原创 2019-05-23 18:45:45 · 2373 阅读 · 0 评论 -
pytorch之交叉熵损失函数
交叉熵损失函数:https://blog.youkuaiyun.com/weixin_37567451/article/details/80895309pytorch中实现的交叉熵损失函数:https://blog.youkuaiyun.com/geter_CS/article/details/84857220转载 2019-05-31 13:07:06 · 12097 阅读 · 0 评论 -
Torchvision学习之transform
transforms的二十二个方法:转载:https://blog.youkuaiyun.com/u011995719/article/details/85107009转载 2019-05-29 10:51:27 · 254 阅读 · 0 评论 -
Pytorch学习之tensor
torch.clamp(input, min, max, out=None) → Tensor作用:Clamp all elements in input into the range [ min, max ] and return a resulting tensor:解释:clamp是夹子的意思,就是把input中的数据加载min~max的范围内,其中min和max可缺省一个,具体规则如...原创 2019-05-29 11:02:10 · 312 阅读 · 0 评论 -
Pytorch学习之cuda
CUDA 语义torch.cuda用来设置和运行CUDA操作。它会记录下当前所选的GPU,这样一来,你分配的所有CUDA tensors默认就会创建在默认的设备(cpu或者某个gpu)上。当然默认的设备也可以通过torch.cuda.device内容管理器来进行改变。然而,一旦分配了tensor之后,你不需要考虑你最初所选的设备(cpu或者某个gpu),运算最终的结果一定会跟你的tenso...翻译 2019-05-29 11:35:52 · 13219 阅读 · 0 评论