- 博客(8)
- 收藏
- 关注
原创 TX1相关 protobuf安装
在 TX1 上编译protobuf2.6.1的步骤:在https://github.com/google/googletest/tree/release-1.5.0下载gtest-1.5.0下载好后解压得到一个文件夹,将文件夹重命名为gtest,并复制到protobuf-2.6.1的文件夹里面然后在protobuf-2.6.1根目录下打开终端,执行./autogen.sh然后依次执...
2018-10-30 13:06:01
313
原创 ubuntu16.04 安装 protobuf-2.5.0
引用自:https://blog.youkuaiyun.com/xiexievv/article/details/47396725
2018-10-14 20:48:13
1702
原创 ubuntu16.04 安装nccl
下载nccl方法一:直接从github下载,安装时按照readme.md 安装即可 https://github.com/NVIDIA/nccl方法二:从NVIDIA官网下载 https://developer.nvidia.com/nccl/nccl-download安装若按照方法一下载,则根据readme走完后会生成两个.deb文件。之后分别安装这两文件即可:sudo d...
2018-10-10 16:30:14
2463
翻译 自归一化网络
介绍FNNs:标准前馈网络在kaggle上效果好的几种方法中基本上都是浅层的FNNs,基本上只有4个隐藏层,隐藏层多了的效果反而不好,尽管不同的层可以表示输入的不同的抽象表示。为了训练很深的CNN时,BN已经成为一个标准去归一化激励值到0均值单位方差,还有LN,WN。但是归一化很容易被用SGD、dropout、归一化参数的估计干扰,RNN和CNN之所以能够稳定的学习是因为权值共享,这样不易于受到干...
2018-06-01 14:20:58
1141
原创 ICCV2017 Dsiam算法研究
声明:文中出现的名词以及图片、公式均来自于Dsiam介绍,目前跟踪方法有两种策略,一是分类+在线更新,这种方法很慢。二是基于匹配的跟踪,不需要在现更新,这种方法速度快,可以达到实时,学习一个匹配函数去容忍目标的在线变化,并且保留实时的能力。缺点是不能抓住目标的临时变化,因此精度不高。作者提出dynamic siamese network,网络包含了一个“通用的形变学习模型”可以从之前的帧中在线学习...
2018-05-23 15:38:27
2190
6
原创 faster rcnn
在卷积特征图上进行如下操作,每个滑动窗的位置(中心),同时预测k个region proposals,所以之后的两个分支网络cls layer和reg layer分别产生2k和4k的输出。2k中的2是指每个region proposal被判断为是目标和不是目标的两个分数(这两个分数加起来应该为一吧),4k中的4指的就是每个region proposal的坐标值(左上角横、纵,width、hight?...
2018-05-22 21:44:54
253
原创 Batch Normalization解读
介绍每一层的输入被之前所有层的参数影响着,所以当网络中的参数有一个很小的变化时,这个变化会随着网络的加深而变大。covrate shift 令q1(x)表示对预测表现进行评价时,x的密度。令q0(x)表示观测数据x的密度。当q1(x)不等于q0(x)就叫做covrate shift。covrate shift 是怎么产生的呢,因为q0(x)是由采样方式决定的,q1(x)是由总体决定的,在回归分析中...
2018-05-20 22:17:00
2252
原创 开始
没想到,自己在科技类博客网站上写的第一篇博客竟然和技术没一点关系,哈哈。今天是2018年3月15日,315?这不是重点,重点是我可能考虑清楚了自己两年半之后去干嘛了。 从上周末回家到这周的周四晚上,也就是今天,我逐渐感受到自己的动力越来越强,就好像车被踩了油门一样,我捉摸不透这动力是源自哪里,但是内心的感受是真实的,那就是我逐渐坚定了一个信念——读博。虽然现在说出这两个字...
2018-03-15 23:31:15
168
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人