
Pytorch
陈城南
这个作者很懒,什么都没留下…
展开
-
SSH 端口转发查看服务器 tensorboard 内容与Terminus Port forwarding 使用
SSH 端口转发查看服务器 tensorboard 内容与Terminus Port forwarding 使用如果直接用 ssh 查看,则:ssh -p 端口号 -L 16006:127.0.0.1:6006 usr@ipsource activate xxtensorboard --logdir=xx# 然后在本地浏览器里打开 http://127.0.0.1:16006/ 查看# 系统将对 16006端口的请求转发至对 服务器 6006 端口(tensorboard 用的端口)的请原创 2021-04-10 14:20:22 · 2395 阅读 · 0 评论 -
torch.repeat 张量维度复制
torch.repeat 用于张量的制定维度复制import torcha = torch.rand(2,3) # 如果 a 是 feature vector, 则 batch=2(dim=0), channels=3(dim=1)b = a.repeat(2,1) # 在 batch(dim=0) 维度上复制 2 次,在 channel(dim=1) 维度上复制 1 次# 即 repeat 的参数为其维度的复制次数,第 1 个参数表示对第 0 dim 的重复次数,依次类推#####原创 2021-03-23 09:37:46 · 20484 阅读 · 0 评论 -
pytorch 取对角线元素/矩阵对角线元素置0
pytorch 取对角线元素/矩阵对角线元素置0使用 torch.diag 取对角线元素,使用 torch.diag_embed() 恢复维度import torcha = torch.randn(3, 3)print(a)tensor([[ 0.7594, 0.8073, -0.1344], [-1.7335, -0.4356, -0.0055], [ 1.8326, 0.3900, -0.9933]])diag = torch.diag(a) #原创 2021-03-07 16:45:48 · 20915 阅读 · 0 评论 -
tf.matrix_band_part 与 torch.tril 使用
tf.matrix_band_part 与 torch.tril 使用这两个函数都是用来取矩阵的某一块值的,简单使用如下tf.matrix_band_parttf.matrix_band_part(m, -1, 0) 表示取矩阵的下左三角,不包括斜对角。同理,tf.matrix_band_part(m, 0, -1)表示取矩阵的右上三角,不包括斜对角。其他操作详细见tf.matrix_band_part,搭配transpose可灵活取值;torch.triltorch.tril.原创 2021-03-03 16:21:54 · 1196 阅读 · 3 评论 -
Pytorch Illegal instruction 解决(鸵鸟战术)
Pytorch - Illegal instruction 解决(鸵鸟战术)运行环境为 anaconda3 下的虚拟环境: Python3 + cuda9.0 + Pytorch1.1.0运行代码利用网络 net 对输入数据 x 求解时,即运行 net(x) 时出现 Illegal instruction (core dumped)利用 anaconda 虚拟环境 python2.7 及其 Pytorch 运行相同代码,正确运行,表明当前环境有问题查找网上解决方案,环境与 CPU 不符合,需要重原创 2020-06-17 13:57:45 · 2489 阅读 · 0 评论 -
Pytorch 学习(十一):Pytorch 图片处理与数据增广
Pytorch 图片处理与数据增广本方法总结自《动手学深度学习》(Pytorch版)github项目Pytorch 数据增广主要依赖于 torchvision.transform 库图片读取from PIL import Imageimg = Image.open('./a.jpg')图片增广单一增广import torchvisionaug1 = torchvision.transforms.RandomHorizontalFlip(p=0.5) # 随机水平翻转,原创 2020-06-16 15:22:45 · 1202 阅读 · 2 评论 -
Pytorch 学习(十):Pytorch 模型在 CPU 与 GPU 上的迁移
Pytorch 模型在 CPU 与 GPU 上的迁移本方法总结自《动手学深度学习》(Pytorch版)github项目Pytorch计算时必须保证模型和参与当前过程的所有数据都在同一个设备(GPU 或 CPU)上CPU 与 GPU 的相互转化import torchimport torch.nn as nnx = torch.randn(1, 2)net = nn.Sequential( nn.Linear(1, 1))if torch.cuda.is_availabl原创 2020-06-15 19:53:06 · 2010 阅读 · 0 评论 -
Pytorch 学习(九):Pytorch 数据和模型存取
Pytorch 网络模型创建本方法总结自《动手学深度学习》(Pytorch版)github项目Pytorch 存储和读取主要依靠 load 和 save 函数模型存取依靠 load_state_dict() 函数数据存储与读取import torchpath = 'p.pth' # 'p.pt'a = torch.tensor(1)torch.save(a, path)b = torch.load(path)模型存取仅存储/加载模型参数model = net()s原创 2020-06-15 19:03:12 · 335 阅读 · 0 评论 -
Pytorch 学习(八):Pytorch 模型参数访问和初始化
Pytorch 模型参数访问和初始化本方法总结自《动手学深度学习》(Pytorch版)github项目网络构建网络构建相关可参考 Pytorch 学习(七):Pytorch 网络模型创建,建立一个多层感知器import torchimport torch.nn as nnnet = nn.Sequential( nn.Linear(2, 2), nn.ReLU(), nn.Linear(2, 1),)参数访问for param in net.paramete原创 2020-06-15 16:36:31 · 439 阅读 · 0 评论 -
Pytorch 学习(七):Pytorch 网络模型创建
Pytorch 网络模型创建本方法总结自《动手学深度学习》(Pytorch版)github项目部分内容延续 Pytorch 学习(五):Pytorch 实现多层感知机(MLP) 实现方法常用的网络搭建方法有继承 Module 方法利用 Sequential, ModuleList 和 ModuleDict 类创建多种方法的同时使用继承 Module 方法在 Pytorch 学习(五)中构建多层感知器网络时,便使用了继承 torch.nn.Module 的方法,这是最常用的网络模型原创 2020-06-15 15:41:42 · 355 阅读 · 0 评论 -
Pytorch 学习(六):Pytorch 解决过拟合问题(L2 权值衰减和 Dropout)
Pytorch 解决过拟合问题(L2 权值衰减和 Dropout)本方法总结自《动手学深度学习》(Pytorch版)github项目部分内容延续 Pytorch 学习(五):Pytorch 实现多层感知机(MLP) 实现方法上一节用 Pytorch 实现了多层感知器。在解决实际问题时,可能会出现过拟合现象,常用的解决方法有数据增广和正则化,L2 权值衰减和 Dropout 都属于正则化的范畴L2 权值衰减(weight decay)以均值方差(MSE)损失函数为例,通常情况下LMS原创 2020-06-15 12:02:36 · 1781 阅读 · 0 评论 -
Pytorch 学习(五):Pytorch 实现多层感知机(MLP)
Pytorch 实现多层感知机(MLP)本方法总结自《动手学深度学习》(Pytorch版)github项目部分内容延续Pytorch 学习(四):Pytorch 实现 Softmax 回归实现方法实现多层感知器(Multlayer Perceptron)同样遵循以下步骤:数据集读取 模型搭建和参数初始化 损失函数和下降器构建 模型训练方法一:从零开始实现import torchimport torch.nn as nnimport numpy as npimport..原创 2020-06-15 09:45:31 · 17796 阅读 · 0 评论