
算法改进
宇弦酒仙
这个作者很懒,什么都没留下…
展开
-
Pytorch同时迭代两个数据集
from __future__ import print_function, division, absolute_importimport argparseimport osimport shutilimport timeimport torchimport torch.nn as nnimport torch.nn.parallelimport torch.backends.cudnn as cudnnimport torch.optimimport torch.utils.dat原创 2021-03-19 16:46:29 · 1729 阅读 · 1 评论 -
读文献 Domain-Adaptive Few-Shot Learning 心得
这篇文章主要讲的是 域自适应小样本学习。当前主流的小样本学习有个关键的隐性假设是小样本的类与源类样本具有近似的样本空间。然而很多情况下,小样本问题的样本空间和源样本空间并不完全一致。所以提出了域自适应小样本学习。解决方案是在DAPN中嵌入领域自适应特征学习之前,显式地增强每类的源/目标分离,以减轻领域对齐对FSL的负面影响。大量实验表明,DAPN优于最先进的FSL和DA模型The go...原创 2020-04-08 13:10:54 · 1683 阅读 · 1 评论 -
文献 Large Scale Learning of General Visual Representations for Transfer 细节分析
Detailed AnalysisBig Models and Big Data普遍的共识是模型越大,效果越好(无论是在上游任务还是在下游任务中)。为了评估模型容量和上游训练集大小对性能的影响,这篇文章做了不同容量的ResNet模型分别在ILSVRC-2012, ImageNet-21k and JFT-300M上进行训练,并在下游数据集中评估。ResNet-50x1, ResNet-50...原创 2020-04-02 11:05:02 · 242 阅读 · 0 评论 -
读文献 Large Scale Learning of General Visual Representations for Transfer 阅读心得
摘要这篇文章扩大了预训练的规模,并提出一种简单易用的迁移学习算法叫做大迁移(BiT)。通过组合一系列仔细选择的组件,迁移时应用简单的启发式算法,在20个数据集上实现了非常好的识别效果。重点是在小数据集上,86.4%在ILSVRC-2012,这个数据集每个类只有25张图片;97.6%在CIFAR10(修改成每个类只有10张图片的形式)。Introduction要执行迁移学习,首先要在大型通用数...原创 2020-03-30 17:36:03 · 562 阅读 · 0 评论 -
量子机器学习应用与挑战
前景1、在线性算法方面,量子工具非常有效;量子工具可以加速线性的相关算法。2、距离度量方面,量子纠缠等效应可以有效的度量样本间的距离。3、在处理噪声方面可能有独特的优势。4、多目标方面。需要做的事情1、怎么把经典数据转为量子态;2、合适的量子工具,比如什么时候加速运行,什么时候减速运行;3、输出的量子信息怎么映射成我们需要的结果4、量子学习的硬件工具的解决问题量子态衡量样本间距...原创 2020-03-15 20:14:51 · 597 阅读 · 0 评论 -
读文献 THE HSIC BOTTLENECK: DEEP LEARNING WITHOUT BACK-PROPAGATION 阅读心得
题目:THE HSIC BOTTLENECK: DEEP LEARNING WITHOUT BACK-PROPAGATIONAbstract这篇文章介绍了深度学习训练中的HSIC瓶颈(希尔伯特-施密特独立准则)HSIC瓶颈是传统反向传播的一种替代方法,它有许多明显的优点。这种方法有利于并行处理,并且需要的操作要少得多。它不受爆炸或消失梯度的影响。它在生物学上比反向传播更合理,因为不需要对称反馈...原创 2020-02-27 15:40:49 · 1622 阅读 · 0 评论 -
读文献:A Simple Framework for Contrastive Learning of Visual Representations心得
摘要:为了了解什么使对比预测任务能够学习有用的表示,我们系统地研究了框架的主要组成部分。(1) 数据增强的组合在定义有效的预测任务方面起着关键作用;(2) 在表示和对比损失之间引入一个可学习的非线性变换,大大提高了学习表示的质量。(3) 与有监督学习相比,对比学习可以从更大的批量和更多的训练步骤中获益。通过结合这些发现,我们能够在ImageNet上大大优于以前的自监督和半监督学习方法。由...原创 2020-02-26 11:03:24 · 9318 阅读 · 2 评论 -
读文献 Automatic Pearl Classification Machine Based on a Multistream Convolutional Neural Network 阅读心得
Abstarct提出了一种新的多流卷积神经网络(MS-CNN)来处理这些多视图图像,每个图像流处理一个特定视角的图像,不同的图像流共享部分权值以融合高阶特征而不损失太多的多样性。此外,卷积核激活的可视化表明,MS-CNN模拟人工过程,确实可以识别相对复杂的特征。这些结果表明,我们的机器在珍珠行业具有潜在的价值。Inroduction人工分类珍珠时,需要同时考虑珍珠的多种特征,这在现实中是比...原创 2020-02-24 14:45:18 · 395 阅读 · 0 评论 -
文献 Multiview Generative Adversarial Network and Its Application in Pearl Classification阅读心得——2
这篇文章的主要工作1) 首先,我们提出MV-GAN作为一种新的深度学习框架来产生珍珠的多视图图像。特别是,这里我们将每个珍珠的多视图图像按上、左、右、主视图和稀有视图的顺序叠加到图像通道维度中,形成多视图输入数据。2) 其次,MV-GAN框架结合了DCGAN的网络结构和CGAN的标签训练方式。因此,鉴别器有四个卷积层,发生器有四个反卷积层。同时,珍珠标签被用来限制每一层的训练和生成图像的自由度...原创 2020-02-21 14:40:40 · 556 阅读 · 2 评论 -
论文 Multiview Generative Adversarial Network and Its Application in Pearl Classification 阅读心得——1
论文题目:多视角对抗生成网络以及在珍珠分类领域的应用——1摘要:提出了一种多视角对抗生成网络(MV-GAN)用于扩充训练数据,然后将扩充的数据应用于多流形卷积神经网络(MS-CNN),实验显显著降低了基本MSCNN的分类误差(相对而言,高达26.71%),更有趣的是,它还可以帮助MS-CNN抵抗亮度干扰,从而实现更稳健的分类。Introduction:作为一个具有挑战性的细粒度识别任务,一...原创 2020-02-21 01:50:06 · 1385 阅读 · 0 评论 -
论文 基于度量学习的小样本学习研究 阅读心得
论文主要工作:本文提出带间隔的小样本学习, 提升了所学习嵌入表示的质量。 为引入间隔, 本文根据小样本场景特点提出了多路对比损失, 使得小样本学习模型可以学习到一个更加具有判别性的度量空间,同时泛化误差可以减小。带间隔的小样本学习是一个通用的框架,可以同各种基于度量的小样本学习模型结合。 本文将带间隔的小样本学习引入到两种已有模型中,分别是原型网络和匹配网络。 另外, 数据的分布往往都有内在结...原创 2020-02-19 15:00:04 · 7288 阅读 · 6 评论