
Pytorch
文章平均质量分 60
Pytorch入门
wzw12315
这个作者很懒,什么都没留下…
展开
-
Unet
unet onnx原创 2022-08-30 16:23:46 · 637 阅读 · 1 评论 -
深度学习的随机种子
深度学习的随机种子原创 2022-07-29 17:14:46 · 1295 阅读 · 0 评论 -
PyTorch中model.modules(), model.named_modules(), model.children(), model.named_children()的详解
文通过一个例子实验来观察并讲解PyTorch中model.modules(), model.named_modules(), model.children(), model.named_children(), model.parameters(), model.named_parameters(), model.state_dict()这些model实例方法的返回值。例子如下:import torch import torch.nn as nn class Net(nn.Module):转载 2022-05-26 14:09:45 · 5661 阅读 · 3 评论 -
PyTorch二分类时BCELoss,CrossEntropyLoss,Sigmoid等的选择和使用
这两天我们有一篇顶会的论文需要Minor Revision,reviewer说让我们在网络图中把fully connected layer画出来。对到底应该画图、画到多详细有点疑问,所以简单总结一下。我们在论文中解决的是一个二分类的问题,我们说hidden state送入fully connected layer+sigmoid做分类,但没有在网络图中画出来,有reviewer就让我们改图了。不过画了fully connected layer,还需要画sigmoid吗?这里就总结一下使用PyTorc..转载 2022-04-15 16:13:46 · 2185 阅读 · 0 评论 -
pytorch实现 分组卷积 深度可分离卷积
常规卷积:常规卷积需要的参数量:Cin×K×K×Cout分组卷积:分组卷积需要的计算量 :Cin×K×K×Cout / g 深度可分离卷积(Depthwise Separable Convolution): 需要的计算量:Cin×K×K+Cout×1×1实现:import torchfrom torchsummary import summaryimport torch.nn as nn'''实现分组卷积demo'''class ...原创 2020-05-28 15:13:32 · 6936 阅读 · 4 评论 -
from scratch implement crnn using pytorch :读取训练数据
知识点: torch.nn.ReLU(inplace=True)中inplace的作用 在文档中解释是:参数: inplace-选择是否进行覆盖运算意思是是否将得到的值计算得到的值覆盖之前的值,比如:x = x +1即对原值进行操作,然后将得到的值又直接复制到该值中而不是覆盖运算的例子如:y = x + 1x = y这样就需要花费内存去多存储一个变量y,所以nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=原创 2020-05-15 17:16:23 · 502 阅读 · 0 评论 -
pyorch 通过前三个数预测后一个数的模型代码demo
相关知识:使用scatter_进行one-hot编码scatter_(self, dim, index, value)将src中数据根据index中的索引按照dim的方向填入value值,这个函数可以从转换成onehot编码来理解 LSTM返回output、hidden和cell output, (hidden,cell) = self.LSTM(x) RNN返回output、hidden output, hidden= self.RNN(x)# -------..原创 2020-05-14 14:50:08 · 388 阅读 · 0 评论 -
pytorch入门三 数据类型与函数
张量 pytorch中提供了不同数据类型的张量:cpu情形下:通用类型 torch.Tensorfloat型 torch.FloatTensordouble型 torch.DoubleTensorint型 torch.IntTensorlong型 torch.LongTensorbyte型 torch.ByteTensorgpu情形下:float型 torch.cuda.FloatTensordouble型 torch.cuda.DoubleTensor..原创 2020-05-09 16:26:03 · 1875 阅读 · 0 评论 -
pytorch入门二 使用pyplot动态展示函数拟合过程
相关知识:均方损失函数:这里 loss, x, y 的维度是一样的,可以是向量或者矩阵,i 是下标。很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。(1)如果 reduce = False,那么 size_aver...原创 2020-05-08 16:28:59 · 355 阅读 · 0 评论 -
pytorch入门一 实现简单的线性函数
api知识:torch.unsqueeze()这个函数主要是在指定维数对数据维度进行扩充torch.squeeze()与torch.unsqueeze()相反,删除维数为1的维度import torchimport torch.nn as nn#生成-100到100的1000个等差数列x = torch.linspace(-100,100,1000)#在指定位置dim...原创 2020-05-08 14:21:15 · 664 阅读 · 0 评论 -
pytorch学习之nn.Sequential类—使用Sequential类来自定义顺序连接模型
前言:类似于keras中的序贯模型,当模型较简单的时候,可以使用torch.nn.Sequential类来实现简单的顺序连接模型。Sequential类是继承自Module类的Sequential类的定义:class Sequential(Module): # 继承Module def __init__(self, *args): # 重写了构造函数 def _get_...原创 2020-05-07 16:58:56 · 1499 阅读 · 0 评论