深度学习
文章平均质量分 89
普通网友
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
实时的神经网络:Faster-RCNN技术分析
转载请说明出处 http://blog.youkuaiyun.com/luopingfeng/article/details/51245694 谢谢! 自2015以来,人工智能在计算机视觉领域(人脸识别\物体分类\图片描述)已经超越人类的识别正确率和速度,而关于速度的提升,不得不提RGB的开山之作(Faster-RCNN) . 先来个概述:Faster-RCNN通过交叉转载 2017-06-01 15:50:50 · 644 阅读 · 0 评论 -
卷积神经网络技术及发展
本文首发于微信公众号:新智元。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。1 新智元编译 来源:arXiv.org 译者:闻菲、胡祥杰 【新智元导读】深度学习很火,说起深度学习中一个很重要的概念——卷积神经网络(CNN)似乎也人人皆知。不过,CNN究竟是什么,涉及哪些概念,经过如何发展,真正要有逻辑转载 2017-06-01 12:13:11 · 5043 阅读 · 0 评论 -
基于深度学习的目标检测研究进展
原文链接 : http://mp.weixin.qq.com/s?__biz=MzI1NTE4NTUwOQ==&mid=502841131&idx=1&sn=bb3e8e6aeee2ee1f4d3f22459062b814#rd前言开始本文内容之前,我们先来看一下上边左侧的这张图,从图中你看到了什么物体?他们在什么位置?这还不简单,图中有一个猫和一个人,具体的位置就是上图右侧图转载 2017-05-27 21:13:20 · 1731 阅读 · 0 评论 -
TensorFlow中cnn-cifar10样例代码详解
TensorFlow是一个支持分布式的深度学习框架,在Google的推动下,它正在变得越来越普及。我最近学了TensorFlow教程上的一个例子,即采用CNN对cifar10数据集进行分类。在看源代码的时候,看完后有一种似懂非懂的感觉,又考虑到这个样例涵盖了tensorflow的大部分语法知识,包括QueueRunners机制、Tensorboard可视化和多GPU数据并行编程等。“纸上得来终觉浅转载 2017-04-26 21:17:08 · 1545 阅读 · 1 评论 -
Tersorflow CIFAR-10 训练示例报错及解决方案
在我运行cifar10示例的过程中,遇到了许多问题,调试了几天才搞定,本文对基于python的深度学习的初学者有些帮助。Tersorflow CIFAR-10 训练示例报错及解决方案1.AttributeError: 'module' object has noattribute 'random_crop'解决方案:将distorted_image= tf.i原创 2017-04-25 15:17:37 · 552 阅读 · 0 评论 -
机器学习——Dropout原理介绍
一:引言文章转载自小梦想大愿望 因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能力不好),但是在测试数据上损失函数比较大,预测准确率较低。 常用的防治过拟合的方法是在模转载 2017-05-16 16:26:14 · 1228 阅读 · 0 评论 -
深度卷积神经网络CNNs的多GPU并行框架及其应用
【编者按】深度卷积神经网络有着广泛的应用场景,本文对深度卷积神经网络Deep CNNs的多GPU模型并行和数据并行框架做了详细的分享,通过多个Worker Group实现了数据并行,同一Worker Group内多个Worker实现模型并行。框架中实现了三阶段并行流水线掩盖I/O、CPU处理时间;设计并实现了模型并行引擎,提升了模型并行计算执行效率;通过Transfer Layer解决了数据存储访转载 2017-05-06 17:25:29 · 1547 阅读 · 0 评论 -
池化总结(OverlappingPooling、 一般池化、Spatial Pyramid Pooling)
池化方法总结(Pooling)在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低维度呢?因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像原创 2017-05-15 17:19:36 · 9745 阅读 · 1 评论 -
ImageNet Classification with Deep Convolutional Neural Networks(译文)
ImageNet Classification with Deep Convolutional Neural NetworksAlex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton摘要我们训练了一个大型的深度卷积神经网络,来将在ImageNet LSVRC-2010大赛中的120万张高清图像分为1000个不同的类别。对测试数据,我们得到了转载 2017-05-08 20:53:16 · 678 阅读 · 0 评论 -
图像识别的深度残差学习
图像识别的深度残差学习联合编译:陈圳、章敏、Blake 摘要在现有基础下,想要进一步训练更深层次的神经网络是非常困难的。我们提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深。我们明确地将这层作为输入层相关的学习残差函数,而不是学习未知的函数。同时,我们提供了全面实验数据,这些数据证明残差网络更容易优化,并且可以从深度增加中大大提高精度。我们在Image转载 2017-06-21 15:19:55 · 21762 阅读 · 0 评论
分享