
pytorch相关
pytorch记录
咕噜咕噜day
day day up!
展开
-
统计模型参数量和估算模型大小
原创 2020-12-07 17:06:14 · 1012 阅读 · 0 评论 -
sklearn中 KFold 和 StratifiedKFold 差别
KFold划分数据集:根据n_split直接进行顺序划分,不考虑数据label分布StratifiedKFold划分数据集:划分后的训练集和验证集中类别分布尽量和原数据集一样验证:from sklearn.model_selection import KFoldfrom sklearn.model_selection import StratifiedKFoldimport numpy as npX = np.array([[10, 1], [20, 2], [30, 3], [40, 4],原创 2020-07-31 10:44:20 · 708 阅读 · 0 评论 -
pytorch验算CrossEntropyLoss ,BCELoss 和 BCEWithLogitsLoss
目录一. 手算验证交叉熵验证:输出:二. 手算验证BCEwith_loss 和 BCEWithLogitsLoss验证:输出:三. 验证BCE_loss在二分类时是交叉熵的特例验证:输出:———————————————————————————————————————————————————一. 手算验证交叉熵(class torch.nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=-100, reduce=None,原创 2020-07-21 01:21:43 · 1792 阅读 · 0 评论 -
pytorch之visdom 远程访问
pytorch之visdom安装$ pip install visdom启动服务python -m visdom.server nohup python -m visdom.server &(后台)当命令行出现下面的信息时,visdom即可正常使用Checking for scripts.It's Alive!INFO:root:Application StartedYou can navigate tohttp://localhost:8097远程访问.转载 2020-06-10 15:19:10 · 3649 阅读 · 1 评论 -
torchetext的简单用法
import pandas as pdimport numpy as npimport torchimport timeimport randomimport osfrom torchtext import datafrom torchtext.vocab import Vectorsfrom torch.nn import initfrom tqdm import tqdm...原创 2019-04-11 09:18:45 · 625 阅读 · 0 评论 -
pytorch 重写lstm 使用mask
@staticmethod def _forward_rnn(cell, input, masks, initial, drop_masks): max_time = input.size(0) # seq_len:41 output = [] hx = initial # ([32,200], [32,200]) 初始化值全为0...原创 2019-07-11 00:24:57 · 3443 阅读 · 3 评论 -
pytorch_basics
import torch # 包 torch 包含了多维张量的数据结构以及基于其上的多种数学操作。另外,它也提供了多种工具,其中一些可以更有效地对张量和任意类型进行序列化import torchvision # torchvision包 包含了目前流行的数据集,模型结构和常用的图片转换工具import torch.nn as nnimport numpy as ...原创 2019-04-05 10:57:57 · 159 阅读 · 0 评论 -
nn.KLDivLoss
KLDivLoss作用: 用于连续分布的距离度量;并且对离散采用的连续输出空间分布进行回归通常很有用;用label_smoothing就采用这个;公式: 公式理解: p(x)是真实分布,q(x)是拟合分布;实际计算时;通常p(x)作为target,只是概率分布;而xn则是把输出做了LogSoftmax计算;即把概率分布映射到log...原创 2020-01-18 23:07:20 · 31519 阅读 · 12 评论 -
fp16与fp32简介与试验
一、fp16和fp32介绍fp16是指采用2字节(16位)进行编码存储的一种数据类型;同理fp32是指采用4字节(32位); 如上图,fp16第一位表示+-符号,接着5位表示指数,最后10位表示分数; 公式: 其中,sign位表示正负,exponent位表示指数(),fraction位表示的是分数()。其中当指数为零的时候,下图加号左边为0,其他情况为...原创 2020-05-02 01:38:42 · 58306 阅读 · 7 评论 -
torch.sum(src,dim)
例子: 总结:dim=1,列变行不变,计算是把每一行不同列求和; dim=0,行变列不变,计算是把每一列不同行求和原创 2020-04-28 13:54:32 · 868 阅读 · 0 评论 -
Pytorch scatter_理解
scatter_(dim, index, src)将src中数据根据index中的索引按照dim的方向填充进调用scatter_的向量中;1.dim=0首先了解,dim=0,表示按行填充,列数不变;scatter_参数中给定的tensor,两个中括号中数值表示x(2,5)中第一行和第二行下标的数分别被填充到向量(3,5)的第一行和第二行的列数;数值的下标表示取x中对应下标的值,然后...原创 2020-04-27 10:06:11 · 364 阅读 · 1 评论 -
TensorboardX 画图解决必须close的问题
问题: TensorboardX必须 writer.close() 才能把缓存中保存的数据写到目标events文件中,一旦训练中断没有close,则你的保存目录中不会有相应的数据。解决办法:很简单,加个 try: writer.close() exceptBaseException: writ...原创 2019-10-10 17:27:16 · 1906 阅读 · 0 评论 -
pytorch TensorboardX 画Loss曲线 和 attention图
def test_2(): writer1 = SummaryWriter('./runs/data_loss') writer2 = SummaryWriter('./runs/png') attns_en = [] step = 199 for i in range(3): attns_en.append(torch.randn([5...原创 2019-10-08 23:00:27 · 2082 阅读 · 0 评论 -
torch.rand; torch.randn; torch.normal(); torch.linspace()
在使用PyTorch做实验时经常会用到生成随机数Tensor的方法,比如:torch.rand()torch.randn()torch.normal()torch.linespace()在很长一段时间里我都没有区分这些方法生成的随机数究竟有什么不同,由此在做实验的时候经常会引起一些莫名其妙的麻烦。所以在此做一个总结,以供大家阅读区分,不要重蹈我的覆辙。均匀分布...转载 2019-07-14 16:18:32 · 586 阅读 · 0 评论 -
pytorch 简单方式实现最小池化
x = - max_pool(-x)原创 2019-05-24 14:34:53 · 2620 阅读 · 1 评论