
深度学习
文章平均质量分 90
DRACO于
这个作者很懒,什么都没留下…
展开
-
pytorch相关部分矩阵变换函数
1、tensor 维度顺序变换 BCHW顺序的调整tensor.permute(dims)将tensor的维度换位。参数是一系列的整数,代表原来张量的维度。比如三维就有0,1,2这些dimension。import torch a = torch.rand(8,256,256,3) #---> n,h,w,cprint(a.shape) b = a.permute(0,3,1,2) # ---> n,c,h,wprint(b.shape)#输出to...原创 2022-03-18 15:37:16 · 2202 阅读 · 0 评论 -
深度学习中的不确定性:What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision
转载 : https://zhuanlan.zhihu.com/p/98756147原文:What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? (NIPS 2017)深度学习模型给出的预测结果并不总是可靠的。在无人驾驶等安全性要求较高的领域中,完全依赖深度模型进行决策有可能导致灾难性的后果。如果能够让深度学习模型对于错误的预测给出一个较高的不确定性,我们就能判断一个预测结果可信程度。因此,我们需要对不确定原创 2021-03-01 20:51:24 · 8169 阅读 · 5 评论 -
caffe训练模型踩到的几个坑
caffe训练流程简介:1、预训练模型在caffe中,预训练模型在脚本中设置,有时候拿到的预训练模型跟改过的prototxt对应不上,预训练的模型根据你当前网络的layer_name进行匹配参数,不是像pytorch一样可以按照尺寸加载。例如加入预训练原始网络的第一个卷积层name是conv1,而你自己的第一个卷积层网络name是Convolution1,那么这个层在预网络中的参数就不会被匹配调用。在实际使用时,有些层修改以后,尺寸与预训练模型对应不上,对应的name需要修改,否..原创 2020-12-31 11:08:03 · 583 阅读 · 0 评论 -
CVPR2020_Hierarchical Feature Embedding for Attribute Recognition详解
摘要由于视点变化、光照变化和外观变化等原因,属性识别是一项重要而又具有挑战性的任务。以往的工作大多只考虑属性级特征嵌入,在复杂的多类别识别条件下性能较差。为了解决这一问题,我们提出了一种层次特征嵌入(HFE)框架,该框架通过结合属性和ID信息学习细粒度特征嵌入。在HFE中,我们同时维护了类间和类内特征的嵌入。将具有相同属性的样本和具有相同ID的样本更紧密地聚集在一起,限制了视觉上的难样本在属性方面的特征嵌入,提高了对变化条件的鲁棒性。我们利用由属性和ID约束组成的HFE loss建立了该层次结构。我们还原创 2020-12-17 20:54:16 · 1404 阅读 · 1 评论 -
caffemodel修改 layer name,修改参数层
修改layer nameimport caffeimport numpy as npcaffe.set_mode_cpu()net = caffe.Net('myprototxt.prototxt', 'mycaffemodel.caffemodel', caffe.TEST)netNew = caffe.Net('myprototxt2.prototxt', 'mycaffemodel2.caffemodel', caffe.TEST)for k, v in ne...原创 2020-12-07 23:08:11 · 1269 阅读 · 1 评论 -
Attribute Recognition by Joint Recurrent Learning of Context and Correlation人体属性论文2017
ICCV2017,论文链接https://arxiv.org/abs/1709.08553?context=cs比较老的一篇文章,参考其他博客,简单过一下。在监控场景中进行行人属性的识别,主要遇到的挑战是图像质量差,外形变化及属性可能在不同的空间位置,标记的训练样本少。论文提出JRL模型挖掘属性上下文信息及属性间相互关系提升识别准确率。JRL在一张行人图像内学习属性相关性,具体的说是属性预测顺序的相互关联性。解决属性预测遇到挑战的方法,一是使用属性的相关性:如“女性”和“裙子”在一张行人..原创 2020-11-12 20:07:32 · 536 阅读 · 0 评论 -
Attribute Aware Pooling for Pedestrian Attribute Recognition人体属性论文
摘要本文探索更好的应用深度卷积神经网络到行人属性识别问题,设计了一种新的属性感知池算法。现有的传统CNNs不能直接用于处理多属性数据,因为 标签空间较大,属性间纠缠和属性的相关性。通过充分利用不同属性之间的相关性来解决这些阻碍多属性分类CNNs发展的挑战。采用多分支结构对不同区域的属性进行操作。除了基于各分支本身的预测外,还利用各分支的上下文信息进行决策。为了实现这两种信息的集成,开发了属性感知池。因此,利用上下文信息可以准确地识别模糊或混杂的属性。在基准数据集上的实验表明,所提出的pooling方法能原创 2020-11-12 17:09:29 · 557 阅读 · 3 评论 -
半监督学习:Π-Model、Temporal Ensembling、Mean Teacher
Π-Model、Temporal Ensembling 和 Mean Teacher 三者都是利用一致性正则(consistency regularization)来进行半监督学习(semi-supervised learning)。一致性正则要求一个模型对相似的输入有相似的输出,即给输入数据注入噪声,模型的输出应该不变,模型是鲁棒的。目录Π-ModelTemporal EnsemblingMean TeacherReferencesΠ-ModelΠ-Model 可以说是最简单的一致性正则半监督学原创 2020-09-28 11:19:16 · 4548 阅读 · 1 评论 -
resnet预训练模型下载
model_urls = { 'resnet18': 'https://download.pytorch.org/models/resnet18-5c106cde.pth', 'resnet34': 'https://download.pytorch.org/models/resnet34-333f7ec4.pth', 'resnet50': 'https://downlo...原创 2019-10-09 09:12:37 · 6844 阅读 · 1 评论 -
AutoAugment: Learning Augmentation Policies from Data(一种自动数据增强技术)
谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集近日,来自谷歌大脑的研究者在 arXiv 上发表论文,提出一种自动搜索合适数据增强策略的方法 AutoAugment,该方法创建一个数据增强策略的搜索空间,利用搜索算法选取适合特定数据集的数据增强策略。此外,从一个数据集中学到的策略能够很好地迁移到其它相似的数据集上。论文地址:https://arxiv.org/pdf/...转载 2019-05-11 11:18:45 · 2731 阅读 · 0 评论 -
senet小结
论文:《Squeeze-and-Excitation Networks》论文链接:https://arxiv.org/abs/1709.01507代码地址:https://github.com/hujie-frank/SENet最近在做行人检索时,优化时用到channel attention机制,虽然对最终结果没有提升,这里做一个简单的总结1. 概述 此论文是由Momenta...原创 2019-05-10 11:30:46 · 1226 阅读 · 0 评论 -
pytorch 预训练模型读取修改相关参数填坑
修改部分层,仍然调用之前的模型参数。resnet = resnet50(pretrained=False)resnet.load_state_dict(torch.load(args.predir))res_conv31 = Bottleneck_dilated(1024, 256,dilated_rate = 2)print("---------------------",res_...原创 2019-05-07 16:23:14 · 8327 阅读 · 3 评论 -
google autoaugment
对于机器学习和深度学习,模型性能是和数据量直接挂钩的。数据增强是一种常见的用来提高模型性能的方法,它能对现有的图像、参数等添加扰动,如裁剪、缩放、改变颜色,使它们成为新图像、新参数,大大弥补了由过小数据集带来的模型性能受限问题。近日,Google提出了一种廉价的数据增强工具AutoAugment,用强化学习提高数据的数量和多样性,可以改善深度学习效果。以下内容来自Google科学家Ekin...转载 2019-05-07 14:55:03 · 1074 阅读 · 1 评论 -
BN在不同框架下对比介绍
1、caffeBN层主要有均值, 方差,γγ,ββ四个参数,其中γγ,ββ是要学习的参数一个代表的是缩放系数,也就是将分布变胖或者变瘦,一个是偏移系数,将分布左右移动。进行BN操作的主要目的是,将数据的分布归一化到非线性函数敏感的区域也即线性区,避免进入饱和区,因为一旦进入饱和区,就会造成梯度消失,γγ,ββ适当的将分布进行了变胖变瘦或者移动的这样的一个操作。其中BN的均值,方差,beta...原创 2019-04-22 20:38:27 · 974 阅读 · 0 评论 -
检索相关论文总结
什么是行人重识别(ReID)如下图,给定一个行人图或行人视频作为查询query,在大规模底库中找出与其最相近的同一ID的行人图或行人视频。做ReID的话,一般从两方面入手:A、特征工程,设计网络来学习不同场景下都general的visual feature,用probe-gallery的特征相关性来作为ranking的依据,一般直接Softmax分类。B、度量学习,设计损失函数...原创 2019-03-21 10:05:22 · 413 阅读 · 0 评论 -
CycleGAN简介及使用
近期在看相关论文时,在论文中发现了这个好玩的一个深度学习GAN的模型,回顾GAN传统的GAN是单向的,网络中有生成器G(generator)和鉴别器(Discriminator)两部分组成。假设两个数据域分别为X,Y。G 负责把X域中的数据拿过来拼命地模仿成真实数据并把它们藏在真实数据中让D猜不出来,而 D 就拼命地要把伪造数据和真实数据分开。经过二者的博弈以后,G 的伪造技术越来越厉害...原创 2019-03-20 11:51:57 · 10259 阅读 · 0 评论 -
蒸馏法训练网络
《Distilling the Knowledge in a Neural Network》摘要在ML领域中有一种最为简单的提升模型效果的方式,在同一训练集上训练多个不同的模型,在预测阶段采用综合均值作为预测值。但是,运用这样的组合模型需要太多的计算资源,特别是当单个模型都非常大的时候。已经有相关的研究表明,复杂模型或者组合模型的中“知识”通过合适的方式是可以迁移到一个相对简单模型之中,进...原创 2019-03-20 11:20:05 · 754 阅读 · 0 评论