
pytorch
Foneone
菜鸡养生记。
展开
-
Pytorch_hook机制的理解及利用register_forward_hook(hook)中间层输出
参考文献:【1】梯度计算问题含公式:参考链接1.【2】pytorch改动和.data和.detch()问题:https://blog.youkuaiyun.com/dss_dssssd/article/details/83818181【3】hook技术介绍:https://www.cnblogs.com/hellcat/p/8512090.html【4】hook应用->中间层的输出:https://blog.youkuaiyun.com/qq_40303258/article/details/10688431原创 2020-07-03 11:42:39 · 15673 阅读 · 5 评论 -
pytorch中的nn.LSTM模块参数详解
官网:https://pytorch.org/docs/stable/nn.html#torch.nn.LSTMParameters(参数):input_size:输入的维度hidden_size:h的维度num_layers:堆叠LSTM的层数,默认值为1bias:偏置 ,默认值:Truebatch_first:如果是True,则input为(batch, seq,...原创 2020-01-26 11:03:12 · 41149 阅读 · 22 评论 -
torch.max() 和 torch.min()
官网:https://pytorch.org/docs/stable/torch.html#torch.maxtorch.max()和torch.min()是比较tensor大小的函数。两者用法相同,所以就总结了一个。(1)不指定比较维度:torch.max(input)x = torch.rand(1,3)print(x)print(torch.min(x))y = to...原创 2020-01-10 16:36:52 · 2742 阅读 · 0 评论 -
torch.Tensor下常用的函数
(1)torch.Tensor.permute(重新排列维度-不能改变维度)(2)torch.Tensor.view(按照原维度-改变维度)(1)torch.Tensor.permute官网:https://pytorch.org/docs/stable/tensors.html#torch.Tensor.permutetorch.Tensor.permute重新排列tens...原创 2020-01-08 15:57:59 · 1644 阅读 · 0 评论 -
torch.nn.Embedding
官网:https://pytorch.org/docs/stable/nn.html#embeddingtorch.nn.Embedding(num_embeddings,embedding_dim,padding_idx=None,max_norm=None,norm_type=2.0,scale_grad_by_freq=False,sparse=False,_weight...原创 2020-01-07 22:10:32 · 9416 阅读 · 3 评论 -
torch.bmm() 与 torch.matmul()
torch.bmm()torch.matmul()torch.bmm()强制规定维度和大小相同torch.matmul()没有强制规定维度和大小,可以用利用广播机制进行不同维度的相乘操作当进行操作的两个tensor都是3D时,两者等同。torch.bmm()官网:https://pytorch.org/docs/stable/torch.html#torch.bmmt...原创 2020-01-07 18:26:57 · 40453 阅读 · 1 评论 -
torch.t()
官网:https://pytorch.org/docs/stable/torch.html#torch.ttorch.t(input)→ Tensortorch.t()是一个类似于求矩阵的转置的函数,但是它要求输入的tensor结构维度<=2D。当input维度为0D或者1D时,不做改变输出本身(torch version=1.0.1中会报错),维度为2D时,输出维度的转...原创 2020-01-07 16:08:01 · 14543 阅读 · 1 评论 -
torch.split() 与 torch.chunk()
torch.split()torch.chunk()区别两者都是切分tensor操作,有一些略微的不同。torch.split()官网:https://pytorch.org/docs/stable/torch.html#torch.splittorch.split(tensor,ssplit_size_or_section,dim=0)torch.split...原创 2020-01-07 15:49:08 · 29117 阅读 · 8 评论 -
torch.stack() 与 torch.cat()
torch.stack()和torch.cat()都是拼接tensor常用操作,stack()可以看做并联,cat()为串联。torch.stack()官网:https://pytorch.org/docs/stable/torch.html#torch.stacktorch.stack(tensors,dim=0,out=None)→ Tensortorch....原创 2020-01-28 10:41:21 · 5329 阅读 · 0 评论 -
pytorch 模型保存与加载
保存模型或权重参数的后缀问题:pytorch保存数据的格式为.t7文件或者.pth文件,或者.pkl格式,t7文件是沿用torch7中读取模型权重的方式。而pth文件是python中存储文件的常用格式。而在keras中则是使用.h5文件。来自:https://blog.youkuaiyun.com/weixin_43216883/article/details/89792312两种方式:(1)...原创 2019-06-17 09:30:02 · 919 阅读 · 0 评论 -
MSELoss()与CrossEntropyLoss() 区别
基于pytorch来讲MSELoss()多用于回归问题,也可以用于one_hotted编码形式,CrossEntropyLoss()名字为交叉熵损失函数,不用于one_hotted编码形式MSELoss()要求batch_x与batch_y的tensor都是FloatTensor类型CrossEntropyLoss()要求batch_x为Float,batch_y为LongTens...原创 2019-05-12 01:29:34 · 7534 阅读 · 0 评论 -
学习《深度学习之pytorch》线性回归(二)
下面x是一维度的线性回归。改天补多维度x=(x1,x2,x3,x4...,xm)的线性回归。 import torch import matplotlib.pyplot as plt import torch.nn as nnfrom torch.autograd import Variable as Varimport torch.optim as optim#构造训练集...原创 2018-11-17 16:56:01 · 297 阅读 · 0 评论 -
学习《深度学习入门之pytorch》(pytorch基础)(一)
pytorch基础理论1 基本操作对象:Tensor 常用的不同种的数据类型: 32位浮点型torch.FloatTensor 64位浮点型torch.DoubleTensor 16位整型 torch.ShortTensor 32位整型 torch.IntTensor 64位整型 torch.LongTensor torch.Tensor 为默认数据类型:torc...原创 2018-11-16 17:20:35 · 1409 阅读 · 0 评论