- 博客(72)
- 收藏
- 关注
转载 显示图例(legend)
参数:loc(设置图例显示的位置)'best' : 0, (only implemented for axes legends)(自适应方式)'upper right' : 1,'upper left' : 2,'lower left' : 3,'lower right' : 4,'right' ...
2020-05-20 18:00:25
505
转载 详解python中的round()函数
round()是python自带的一个函数,用于数字的四舍五入。但是round()的输出结果与Python的版本有关:在python2中,round(1.0/2.0)=0;在python3中,round(1.0/2.0)=1$ pythonPython 2.7....
2020-05-20 16:51:37
1590
转载 python绘制precision-recall曲线、ROC曲线
基础知识 TP(True Positive):指正确分类的正样本数,即预测为正样本,实际也是正样本。FP(False Positive):指被错误的标记为正样本的负样本数,即实际为负样本而被预测为正样本,所以是False。TN(True Negative):指正确分类的负样本数,即预测为负样本,实际也是负样本。FN(False Negative):指被错误的标记为负样本的正样本数,即实际为正...
2020-05-20 13:44:42
1933
转载 tensorflow中 tf.reduce_mean和tf.reduce_sum()
tensorflow中 tf.reduce_mean函数tf.reduce_sum()
2020-05-20 13:14:39
258
转载 ValueError: steps_per_epoch=None is only valid for a generator based on the keras.utils.Sequence
ValueError: steps_per_epoch=None is only valid for a generator based on the keras.utils.Sequencehttps://github.com/keras-team/keras/tree/master/examples运行如上代码cifar10_resnet.py文件出现下列错误ValueError: steps_per_epoch=None is only valid for a generator based o
2020-05-19 23:06:25
464
转载 capsule net
胶囊网络(Capsule Network) 1、capsule与neural的区别neural的output是value,capsule的output是vector。capsule的input可以是其它capsule的output。neural是侦测某一个pat
2020-05-19 21:11:37
234
转载 pytorch中index_select()
**pytorch中index_select()的用法**a = torch.linspace(1, 12, steps=12).view(3, 4)print(a)b = torch.index_select(a, 0, torch.tensor([0, 2]))print(b)print(a.index_select(0, torch.tensor([0, 2])))c = torch.index_select(a, 1, torch.tensor([1, 3]))print(c)
2020-05-15 19:35:43
362
转载 ResNet-18 cifar-10 实战
'''ResNet-18 Image classfication for cifar-10 with PyTorch '''import torchimport torch.nn as nnimport torch.nn.functional as Fimport torchimport torch.nn as nnimport torch.optim as optimimport torchvisionimport torchvision.transforms as transfo
2020-05-11 22:40:56
357
转载 sklearn.metrics.roc_curve解析
先认识单词:metrics: ['mɛtrɪks] : 度量‘指标 curve : [kɝv] : 曲线这个方法主要用来计算ROC曲线面积的;sklearn.metrics.roc_curve(y_true, y_score, pos_label=None, sample_weight=None, drop_intermediate=True)Parameters :y_true : 数组,shape = [样本数]在范围{0,1}或{-1,1}中真
2020-05-11 20:00:29
1625
转载 pytorch保存模型等相关参数,利用torch.save(),以及读取保存之后的文件
假设在某个epoch,我们要保存模型参数,优化器参数以及epoch。1. 先建立一个字典,保存三个参数:if steps % 10000 == 0: file_path = os.path.join(args.weight_dir, 'weights-{:07d}.pth.tar'.format(steps)) state =
2020-05-11 18:31:48
1108
转载 numpy.stack最通俗的理解
numpy.stack(arrays, axis=0) 类似于pytorch 中的unsqueeze沿着新轴连接数组的序列。axis参数指定新轴在结果尺寸中的索引。例如,如果axis=0,它将是第一个维度,如果axis=-1,它将是最后一个维度。参数: 数组:array_like的序列每个数组必须具有相同的形状。axis:int,可选输入数组沿其堆叠的结果数组中的轴。返回: 堆叠:ndarray堆叠数组比输入数组多一个维。上面是官方给出的解释,很难理解。我们先从增加维度说起。>>&
2020-05-11 16:21:27
182
原创 pytorch几个重要的学习例子
1、简单的回归2、MNIST3、创建Tensor4、索引与切片5、维度变换 expand6、broadcasting7、合并与分割concat8、数学运算9、statistics10、tensor_advanced11、BatchNorm12、nn.Module()13、Visdom1.简单的回归import numpy as np# y = wx + bdef compute_error_for_line_given_points(b, w, points): t
2020-05-11 12:18:50
772
1
原创 pytorch中squeeze()和unsqueeze()函数
一、unsqueeze()函数当unqueeze 函数中参数是为非负数数时 在对应的前边添加维度,a的shape 为(2,3例如在unqueeze(0)在0维之前添加一维shape变成(1,2,3)unsqueeze的插入方式如下squeeze 只有在维度位置的数维度维1的时候才会被压缩首先初始化一个a可以看出a的维度为(2,3)在第二维增加一个维度,使其维度变为(2,1,3)可以看出a的维度已经变为(2,1,3)了,同样如果需要在倒数第二个维度上增加一个维度,那么使用b.unsq
2020-05-10 22:04:54
684
1
转载 pytorch中的worker如何工作的
【Q&A】pytorch中的worker如何工作的 目录QuestionAnswer参考资料Question一直很迷,在给Dataloader设置worker数量(num_worker)时,到底设置多少合适?这个worker到底怎么工作的?如果将num_worker设为0(也是默认值),就没有worker了吗?worker的使用场景:from torch.utils.data import DataLoadertrain_loader = DataLoader(datase.
2020-05-10 15:56:08
375
转载 评价分类器性能指标之AUC、ROC
评价分类器性能指标之AUC、ROC前言本文内容大部分来自于如下两个博客: http://blog.youkuaiyun.com/dinosoft/article/details/43114935 http://my.oschina.net/liangtee/blog/340317引子假设有下面两个分类器,哪个好?(样本中有A类样本90个,B 类样本10个。) 、 A类样本 B类样本 分类精度 分类器C1 A*90(100%) A*10(0%) 90% 分类器C2 A*70 + B*
2020-05-10 12:52:03
366
转载 Transposed convolution:pytorch ConvTranspose2d参数设置
一、卷积操作:假设cnn中某一层: 输入特征图:H*H, 卷积核:k*k, 步长stride:s, padding:p那么经过这层卷积之后特征图大小:(H-k+2*p)/ s + 1 二、Transposed convolution(逆卷积).
2020-05-09 16:52:42
612
转载 Dynamic Routing Between Capsules
Dynamic Routing Between Capsules学习资料总结Dynamic Routing Between Capsules(NIPS2017)Dynamic Routing Between Capsules这篇文章已被NIPS 2017接收。2017年10月28日被提交到了预印版论文平台上。摘要:Capsule 是一组神经元,其活动向量(activity vector)表示...
2020-05-04 12:05:10
227
转载 Spatial Group-wise Enhance: Improving Semantic Feature Learning in Convolutional Network
文章的思路很简单,类似于SENet(对channel做attention)、spacial attention就是将channel分为group, 然后对每个group进行spatial的attention模块如上图所示,1、将feature map按channel维度分为G个group2、对每个group单独进行attention3、对group进行global average poo...
2020-05-02 15:56:04
1022
转载 Selective Kernel Networks
**SKNet同样是一个轻量级嵌入式的模块,**其灵感来源是,我们在看不同尺寸不同远近的物体时,视觉皮层神经元接受域大小是会根据刺激来进行调节的。那么对应于CNN网络,一般来说对于特定任务特定模型,卷积核大小是确定的,那么是否可以构建一种模型,使网络可以根据输入信息的多个尺度自适应的调节接受域大小呢?基于这种想法,作者提出了Selective Kernel Networks(SKNet)。结构图...
2020-05-02 15:46:51
266
原创 SE-Networks
SENet是ImageNet 2017(ImageNet收官赛)的冠军模型,和ResNet的出现类似,都在很大程度上减小了之前模型的错误率(具体见附录),并且复杂度低,新增参数和计算量小。下面就来具体介绍一些SENet的神奇之处。SENet的全称是Squeeze-and-Excitation Networks,中文可以翻译为压缩和激励网络。主要由两部分组成:1. Squeeze部分。即为压缩部...
2020-05-02 15:14:24
868
原创 ROBUSTNESS TO ADVERSARIAL EXAMPLES THROUGH AN ENSEMBLE OF SPECIALISTS
1.利用FGSM方法得到模型的混淆矩阵:根据混淆矩阵将数据分为2K+1个子集,在每个子集上训练分类器。2.伪代码如下:2k个专家子集和一个训练10分类的cnn ensemble3.实验考虑三种模型单个CNN,简单集成CNN,specialists +1,其中每个卷积网都是(32+32+64+全连接+softmax。投票机制无法使用通才来激活相关专家,因为通常这会遭到对手的欺骗。在算...
2020-05-01 20:45:41
491
4
转载 pytorch 学习 -LSTM
RNN的类别:循环神经网络主要应用于序列数据的处理,因输入与输出数据之间有时间上的关联性,所以在常规神经网络的基础上,加上了时间维度上的关联性,也就是有了循环神经网络。因此对于循环神经网络而言,它能够记录很长时间的历史信息,即使在某一时刻有相同的输入,但由于历史信息不同,也会得到不同的输出,这也是循环神经网络相比于常规网络的不同之处。根据输入与输出之间的对应关系,可以将循环神经网络分为以下五大...
2020-04-15 19:32:41
469
原创 AE实战
AE.py#!/usr/bin/env python# coding: utf-8# In[1]:import torchfrom torch import nnclass AE(nn.Module): def __init__(self): super(AE,self).__init__() #[b,78...
2020-04-12 16:23:42
207
原创 VAE实战
# coding: utf-8# In[3]:VAE.pyimport torchfrom torch import nnclass VAE(nn.Module): def __init__(self): super (VAE,self).__init__() # [b, 784] => [b, ...
2020-04-12 16:20:48
336
原创 GAN实战
import torchfrom torch import nn,optim,autogradimport numpy as npimport visdomfrom torch.nn import functional as Ffrom matplotlib import pyplot as pltimport randomh_dim =400batchsz=512v...
2020-04-12 16:09:56
188
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人