
深度学习
牛牛存
决定变得勤快的小懒
展开
-
tensorflow(一)
tf.train.create_global_step用法:tf.train.create_global_step(graph=None)作用:在图中创建全局步长张量参数:graph:在该图中创建全局步长张量。如果丢失,使用默认图。返回:全局步长张量...原创 2018-11-28 11:29:27 · 404 阅读 · 0 评论 -
[翻译]Learning Multiple Tasks with Deep Relationship Networks
Abstract受过大规模数据训练的深度网络可以学习可转移的特性,以促进学习多种任务。随着深度特征最终从一般到特定的深度网络的转换,一个根本的问题是如何利用不同任务之间的关系,并提高特定任务层的特性可转移性。本文提出了在深层卷积神经网络中,基于新颖的张量先验的深度关系网络(DRN),在多任务特定层的参数张量上发现任务关系。通过联合学习可转移的特性和任务关系,DRN能够缓解在特征层中负转移的困境...翻译 2018-08-15 12:20:46 · 2349 阅读 · 0 评论 -
[翻译]Convolutional Two-Stream Network Fusion for Video Action Recognition
摘要近年来,卷积神经网络(卷积神经网络)对视频中人类行为识别的应用提出了不同的解决方案,用于整合外观和运动信息。为了更好地利用时空信息,我们研究了许多在空间和时间上融合卷积塔的方法。我们得出以下结论:(i)不是在softmax层进行融合,而是在一个卷积层上融合空间和时间网络,即不会损失性能,而且在参数上有大量的节省;(ii)最好在最后一个卷积层而不是之前的层上(spatially)融合,而在类...翻译 2018-06-14 11:02:53 · 6947 阅读 · 0 评论 -
[翻译]Beyond Short Snippets: Deep Networks for Video Classification
摘要卷积神经网络(CNNs)被广泛应用于图像识别问题,在识别、检测、分割和检索方面提供了最先进的结果。在这项工作中,我们提出并评估了几个深度神经网络架构,将在一个视频中更长时间的图像信息结合起来。我们提出了两种处理全长度视频的方法。第一个方法探索了各种卷积时间特征池架构,研究了在为这个任务调整CNN时需要做出的各种设计选择。第二种方法明确地将视频建模为一个有序的帧序列。为此,我们使用了一个循环...翻译 2018-06-14 10:47:30 · 2856 阅读 · 0 评论 -
[翻译]FlowNet: Learning Optical Flow with Convolutional Networks
摘要卷积神经网络(CNNs)最近在各种计算机视觉任务中非常成功,特别是那些与识别有关的任务。光流量估计并不在CNN能够成功完成的任务当中。本文提出了一种能够将光流估计问题作为监督学习任务的CNNs。我们提出并比较两个架构:一个通用架构和另一个架构,包括一个在不同的图像位置关联特征向量的层。由于现有的地ground truth数据集不够大,不足以训练CNN,所以我们生成了一个大型的合成Flyin...翻译 2018-06-07 19:10:03 · 4106 阅读 · 0 评论 -
[翻译]End-to-End Learning of Motion Representation for Video Understanding
摘要尽管端到端学习的表示最近取得了成功,但手工制作的光流特征仍然被广泛应用于视频分析任务中。为了填补这一空白,我们提出了TVNet,一个新颖的端到端可训练神经网络,从数据中学习光流的特征。TVNet包含了一个特定的光流解算器,即TV-L1方法,并通过将其优化迭代展开为神经层来初始化。因此,TVNet可以直接使用,无需任何额外的学习。此外,它可以与其他特定于任务的网络自然地连接起来,以形成端到端...翻译 2018-06-11 15:53:48 · 2234 阅读 · 0 评论 -
SPPNet(Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition)
现存的深度卷积网络需要固定大小的输入图片(例如,224×224)。这个要求可能降低任意大小/尺度图片/子图的识别精度。在SPPnet中,作者提出了另一个共享策略,即“空间金字塔池”,以消除上述需求。SPPNet可以不管图片的大小都可以生成固定长度的表示。图1 上面一行是一般的深度卷积网络的结构,下面一行是SPPNet的网络结构。卷积层接受任意的输入大小,但是它们产生可变大...原创 2018-06-06 15:30:46 · 265 阅读 · 0 评论