- 博客(92)
- 收藏
- 关注

原创 Batch Normalization详解
这几天重新看了BN,完成了翻译,也仔细的对里面一些自己感到疑惑的点,进行了查阅和思考,其中有一些个人见解,欢迎大家来讨论。本文分两个部分,第一部分对BN进行一些基本讲解,第二部分讲其他的一些Normalization方法。BN1 问题首先我们要明白BN想要解决的问题是什么,参考原文我们发现,随着网络越来越深,训练深度网络变得很困难,收敛速度很慢。1.1 原因原文告诉我们是因为 Inte...
2019-08-12 01:07:58
1756
1
翻译 Batch Normalization
论文链接:https://arxiv.org/pdf/1502.03167.pdf论文题目:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift这里说明一下,这篇已经是很早的paper了,但是它的非常重要,所以我重温了一下,顺便翻译了。Batch Norma...
2019-08-06 09:47:22
346
原创 UR机器人:位姿表示以及相关移动
博主最近在做强化相关的任务,用到了UR5机械臂,所以本文主要讲述在使用过程中,对于UR机器人位姿的理解。在阅读本文之前,希望大家能够花一点时间读一下我的另一篇博文空间信息与坐标变换。本文如有错误的地方,欢迎大家指正,欢迎讨论。机座和工具首先UR机器人里定义了两个坐标系,一个是机座坐标系,一个是工具坐标系,机座坐标系就是以UR机器人的底座中心为坐标原点,y轴正方向为电线伸出的方向,z轴正方向为...
2019-07-29 17:37:49
10655
16
翻译 Grasp2Vec
论文链接:https://arxiv.org/pdf/1811.06964.pdf论文题目:Grasp2Vec: Learning Object Representations from Self-Supervised GraspingGrasp2VecAbstract好的结构化的视觉表示能够帮助机器人快速的学习并且同时提高泛化能力。本文,我们研究对于机器人操作任务,如何在没有人工标注...
2019-07-02 15:36:59
890
翻译 Prioritized Experience Replay
论文链接:https://arxiv.org/pdf/1511.05952v2.pdf论文题目:PRIORITIZED EXPERIENCE REPLAYPrioritized Experience ReplayAbstract经验回放允许在线强化学习agent可以记住并且重复使用过去的经验。在之前的研究中,经验转变信息是从回放库里均匀采样的。然而,这种方法只是简单的以同样的频率来回放...
2019-06-26 15:25:09
1377
翻译 DQN
论文链接:http://storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Paper.pdf论文题目:Human-level control through deep reinforcement learningDQN为了让强化学习能够逼近复杂的现实世界,agents必须面临一个很难的问题:它们必须...
2019-06-24 15:49:40
1473
翻译 Double DQN
论文链接:https://arxiv.org/pdf/1509.06461.pdf论文题目:Deep Reinforcement Learning with Double Q-learningDouble DQNAbstractQ-learning算法在特定情况下会存在过估计action values的情况。这种情况在实际应用中很普遍,而且会影响算法效果。之前并不知道原因以及能不能避免...
2019-06-21 11:08:04
4203
翻译 Dueling Network
论文链接:https://arxiv.org/pdf/1511.06581.pdf论文题目:Dueling Network Architectures for Deep Reinforcement LearningDDQNAbstract本文提出一种新的网络结构用于model-free强化学习。我们的对抗网络分别表达了两个估计量:一个是状态价值函数,一个是依附于状态的动作优势函数。这个...
2019-06-19 14:12:15
3934
翻译 An introduction to Policy Gradients with Cartpole and Doom(四)
https://www.freecodecamp.org/news/an-introduction-to-policy-gradients-with-cartpole-and-doom-495b5ef2207f/前两篇文章介绍了Q-learning和DQN,都是value-based的强化学习算法。为了决定该state选择哪个action,我们通过Q-value来完成决策。因此,在value-b...
2019-06-18 14:53:19
280
翻译 DQL: Dueling Double DQN, Prioritized Experience Replay, and fixed Q-targets(三下)
https://www.freecodecamp.org/news/improvements-in-deep-q-learning-dueling-double-dqn-prioritized-experience-replay-and-fixed-58b130cc5682/DQL是2014年提出的。自那以后提出了很多改进。所以,今天我们来看看四种极大提升DQN agents的训练和结果:f...
2019-06-17 18:15:17
2810
2
原创 V-REP API
http://www.coppeliarobotics.com/helpFiles/en/remoteApiConstants.htm#functionErrorCodesRemote API function return codes每个API接口都需要返回的一个code,用来表征调用该API的状态,如果运行良好,就会返回0。Remote API function operation m...
2019-06-14 15:26:28
4251
原创 空间信息与坐标变换
VPG任务以及深度估计任务中,会涉及一些关于空间变换以及坐标变换的问题,这里我们统一进行一次详细的讲解,如有错误,欢迎讨论。空间信息如何描述一个物体的空间信息,我们就需要有位置描述和姿态描述。需要注意的是,我们任何的空间信息描述都是要基于一个基准的,也就是我们要基于一个坐标系来进行描述。在进行位置描述的时候,我们将物体抽象成一个点,描述它与我们定义的坐标中心的相对位置关系,等同于在定义的坐标...
2019-06-13 16:08:12
1996
翻译 An introduction to Deep Q-Learning: let’s play Doom(三上)
https://www.freecodecamp.org/news/an-introduction-to-deep-q-learning-lets-play-doom-54d02d8017d8/上一章,我们学习了Q-Learning:一种RL算法,它会构建一个Q-table,然后agent在给定state的情况下使用Q-table来找到最优动作。但是我们会发现,如果我们有一个巨大的state空...
2019-06-04 16:12:54
399
翻译 Diving deeper into Reinforcement Learning with Q-Learning(二)
https://www.freecodecamp.org/news/diving-deeper-into-reinforcement-learning-with-q-learning-c18d0db58efe/本章我们来学习Q-Learning。Q-Learning是一种value-based的强化学习方法。The big picture: the Knight and the Princes...
2019-06-03 18:09:04
346
翻译 An introduction to Reinforcement Learning(一)
https://www.freecodecamp.org/news/an-introduction-to-reinforcement-learning-4339519de419/The Reinforcement Learning Process依然以马里奥作为例子。RL的流程如下:Agent从env中接收到state S0S0S0(在这个例子中我们接受到的就是超级马里奥(env)里的游...
2019-06-03 15:37:26
1047
翻译 强化学习入门
Agent一个可以做动作的代理。例如一个运输的无人机,或者超级马里奥游戏。算法就是代理。在生活中,代理就是你。ActionA是代理可能做的所有动作的集合。一个动作是一目了然的,但是需要注意的是,代理必须从这个集合里选择动作。在视频游戏里,这个list可能包括,左右移动,跳高跳低,蹲下或者静止不动。在股票市场,这个list可能是买,卖或持有。Discount factor衰减因子通过乘在未...
2019-05-30 17:14:44
618
翻译 FCN
论文链接:https://arxiv.org/pdf/1605.06211.pdf论文题目:Fully Convolutional Networks for Semantic SegmentationFCNAbstract1 INTRODUCTION语义分割有一个一直存在的矛盾是关于语义信息和位置信息的:全局信息解决what ,局部信息解决where。那么怎么做才可以使得语义信息和位...
2019-03-21 14:55:05
1228
1
翻译 Training and investigating Residual Nets
http://torch.ch/blog/2016/02/04/resnets.html
2019-03-20 11:31:30
1901
翻译 DenseNet
论文链接:https://arxiv.org/pdf/1608.06993.pdf论文题目:Densely Connected Convolutional NetworkDenseNetAbstract最近的研究表明如果在接近输入和输出的层加入一些捷径连接那么可以让网络更深,得到更好的结果,且还可以更有效的训练。在本文中,我们就遵循这个观点然后引出DenseNet,在前向传递的时候,它...
2019-03-19 18:38:54
495
翻译 Bag of Tricks for Image Classification with Convolutional Neural Networks
论文链接:https://arxiv.org/pdf/1812.01187.pdf论文题目:Bag of Tricks for Image Classification with Convolutional Neural NetworksBag of Tricks for Image Classification with Convolutional Neural NetworksAbs...
2019-02-25 15:23:44
553
原创 贝叶斯机器学习(一)
本系列主要是贝叶斯机器学习相关知识的学习笔记。第一讲:概率论回顾,贝叶斯公式,共轭先验“贝叶斯规则” 是来自于对于概率分布的一些基本操作。下面举一个简单的例子例子整个空间是Ω\OmegaΩ,AiA_iAi 是第i列(随便定义的),BiB_iBi 是第i行(同理,随便定义的)在这个空间里分布着一些点。我们随机的且均匀的从这些点里取出一个点。那么这个概率计算是一个简单的数数。...
2019-02-19 16:45:02
1431
翻译 Mask R-CNN
https://arxiv.org/pdf/1703.06870.pdfMask R-CNNAbstract我们提出一种概念上简单、灵活且普世的对于实例对象分割的框架。我们的方法能够有效地检测一张图像里的物体,并且同时对于每个实例都能生成一个高质量的实例mask。这个方法叫做Mask R-CNN,是在Faster R-CNN的基础上通过增加一个与已有的边框识别分支并行的一个用来
2019-01-27 23:49:50
469
翻译 ResNeXt-2017
https://arxiv.org/pdf/1611.05431.pdfResNeXtAbstract我们提出一种用于图像分类的简单的,高度结构化的网络结构。我们的结构是通过重复一个构建单元来完成的,这个构建单元是一系列拥有同样拓扑结构的变换的聚合。我们这个简单的设计最终会形成一个均匀的同分支结构,这个结构只需要设定很少的超参数。这个策略开发了除了深度和宽度的一个新的维度,我们叫做 card...
2019-01-11 11:49:13
1735
翻译 Siamese Network
http://yann.lecun.com/exdb/publis/pdf/chopra-05.pdfLearning a Similarity Metric Discriminatively, with Application to Face VerificationAbstract我们提出一种方法来从数据中训练学习一个相似性的度量标准。这个方法可以被应用到识别或者验证任务中...
2018-10-24 19:04:11
1163
翻译 FPN
https://arxiv.org/pdf/1612.03144.pdfFeature Pyramid Networks for Object DetectionAbstract特征金字塔是对于多尺度目标检测的识别系统里的一个基本组件。但是近期的深度学习目标检测器已经避免使用金字塔的表达方式,有部分原因是因为金字塔表达是计算和存储密集型。在本文中,我们开发了一种内在多尺度的金字...
2018-01-29 20:34:14
751
翻译 Focal Loss for Dense Object Detection
https://arxiv.org/pdf/1708.02002.pdfFocal Loss for Dense Object DetectionAbstract目标检测目前最高的准确率是基于两阶段的R-CNN,其分类器被应用于一个稀疏的候选目标位置集合。相比之下,如果将常规的,密集的可能目标位置输入到单一阶段的检测器里可能会使得模型更简洁,训练更快,但是可能准确率会受到一定影...
2018-01-29 19:19:07
3609
5
翻译 R-CNN
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I...
2018-01-17 14:46:25
650
翻译 Fast R-CNN
https://arxiv.org/pdf/1504.08083.pdfFast R-CNN1. Introduction最近,深度卷积网络明显的提高了图像识别和目标检测的准确率。跟图像识别相比,目标检测是一个更具挑战性的任务,它需要更复杂的算法和方法来解决。考虑到复杂性,最近的多级管线的训练方法太缓慢而且并不简洁。 目标检测的困难和复杂性主要来自于需要精确的定位物体,这就带...
2018-01-16 21:08:32
523
翻译 Faster R-CNN
https://arxiv.org/pdf/1506.01497.pdfFaster R-CNNINTRODUCTION最近在目标检测领域的发展来自于region proposal方法以及R-CNN的成功。尽管R-CNN其最原始的版本运算量很大,但是由于预测框上的共享卷积大大降低了其运算量。最新的R-CNN典型代表Fast R-CNN就在使用很深网络的同时达到了实时检测的速率,...
2018-01-15 10:22:01
906
翻译 ResNet-2015
https://arxiv.org/pdf/1512.03385.pdfResNetIntroduction深度卷积神经网络引领了一系列对于图像识别任务的突破。深度网络可以很自然地将 低/中/高 级的特征和分类器整合为一个端对端(end-to-end)的模式,特征的”level”会随着网络层数的增加而更加丰富。最近的研究发现网络的深度尤为重要,对于在ImageNet数据集上取得...
2017-12-19 09:10:19
2745
原创 卷积神经网络(一)- Foundations of Convolutional Neuron Networks
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I...
2017-12-12 04:48:06
590
翻译 Inception-V2,V3 - 2015
http://arxiv.org/pdf/1512.00567v3.pdfInception-V2,V31.Introduction2012年,”AlexNet”获得了冠军,并且发现AlexNet成功地适用于很多机器视觉任务,目标检测,图像分割,人体动作识别,视频分类,目标跟踪,图像超分辨率等。 2014年,更深更宽的”VGGNet”和“GoogLeNet”在比赛中均取得了非...
2017-12-02 08:05:45
3079
原创 Tensorflow(四)- CNN_CIFAR(一)- cifar10_input
这篇开始,讲述自己对于tensorflow文档中,利用CNN建立CIFAR-10模型的理解,如有错误欢迎指正,也是互相学习。由于代码太长,所以分几篇来讲述。 第一篇是关于cifar10_input.py文件。cifar10_input.py这个文件主要用来进行数据读取以及输入数据处理。 Tensorflow一共有三种读取数据的方式: 第一种最简单的预加载数据,直接在graph中定...
2017-11-15 13:42:52
3001
翻译 GoogLeNet-2014
https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdfGoogleNetRelated Work从LeNet-5开始,CNN有了一种典型的结构,也就是卷积层的堆叠(带有归一层和最大值池化层)在加上FC layer...
2017-11-15 05:22:29
1010
翻译 NIN-2013
https://arxiv.org/pdf/1312.4400v3.pdfNetwork In NetworkIntroductionCNN的卷积核对于其所卷积的data patch来说其实本质上是一个广义线性模型(generalized linear model,GLM),而GLM本身它的对于特征的表达能力以及抽象等级是偏低的。抽象来说,特征是不变的对于同一概念的变体。如果将...
2017-11-04 05:15:27
422
翻译 VGG-2014
https://arxiv.org/pdf/1409.1556.pdfVGG-2014ConvNet configurationsArchitecture 输入图像大小224x224。 唯一的数据预处理,是图像均值化(subtract the mean RGB value)。 图像经过一堆卷积层,使用3x3的卷积核(最小规格的卷积核来表征所谓左右,上下,中间)。只有一种网...
2017-11-03 12:35:26
1233
翻译 AlexNet-2012
一味学习基础知识,不跟上前沿也是不行,博主准备用接下来几篇来对近年来的CNN模型进行梳理。 https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdfAlexNet - 2012ArchitectureReLU 非线性ReLU激活函...
2017-11-02 11:31:20
459
原创 WIN10 64位+GTX1060配置tensorflow-GPU加速
这是一篇血泪史,博主花了一天的时间,终于配置好了tensorflow GPU加速环境。成功的那一刻,心想着必须留下一篇博客。博主在参考下面两篇博客 http://blog.youkuaiyun.com/sb19931201/article/details/53648615 http://www.jianshu.com/p/c245d46d43f0 以及无数百度和自己的努力下完成了配置。首先强调版...
2017-10-28 12:39:25
15170
3
原创 Tensorflow(三)- CNN_MNIST
本文模型为tensorflow官方文档中,构建多层CNN完成MNIST训练的模型,通过复现模型来讲解用到的API以及对CNN进行一个简单的梳理。权重初始化tf.truncated_normal() 截断正态分布API https://www.tensorflow.org/versions/r1.4/api_docs/python/tf/truncated_normal 首先使用正态...
2017-10-26 05:32:39
430
原创 构建机器学习项目(二)- ML strategy(2)
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I...
2017-10-17 03:47:13
328
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人