
computer version
Thuzxy
这个作者很懒,什么都没留下…
展开
-
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别? https://www.zhihu.com/question/34681168http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/ RNN运用于图像生成描述,GENE原创 2017-05-25 13:22:09 · 3158 阅读 · 0 评论 -
训练数据相关
A Study of the Behavior of Several Methods for Balancing Machine Learning Training Data我们的实验结果使用基于歧视的归纳方案,表明问题并不仅仅是由类别不平衡引起的,而且也与类别之间的数据重叠程度有关我们得出结论,过采样方法能够帮助分类器的诱导比那些从采样数据集中诱导的分类器更为准确。值得注意的是,随机过采样是一种非原创 2017-06-01 17:50:06 · 307 阅读 · 0 评论 -
YOLO
http://blog.youkuaiyun.com/tangwei2014/article/details/50915317原创 2017-05-19 16:25:14 · 233 阅读 · 0 评论 -
机器学习中的卷积
卷积层(Convolutional layer),卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。在泛函分析中,卷积、叠积、摺积或旋积,是通过两个函数f和g生成第三个函数的一种数学算子,表征函数f与经过翻转和平原创 2017-05-10 16:10:42 · 1968 阅读 · 0 评论 -
K-Shortest Path :Multiple Object Tracking using K-Shortest Paths Optimization论文笔记
Multiple Object Tracking using K-Shortest Paths Optimization Abstract :当处理多目标问题时,在所有可能的轨迹中,连接这一步会带来困难的优化问题。这通常需要基于动态编程的采样或者贪婪寻找来完成,但其无法保证全局最优解。 在本文中,我们表明将该步骤重新定义为约束流优化导致了一个凸问题。 我们使用k-最短路径算法利用其特定的结构来原创 2017-05-08 17:36:40 · 3040 阅读 · 1 评论 -
损失函数介绍
谈谈分类器的损失函数(1): http://www.10tiao.com/html/149/201607/2650470558/1.htmlhttp://www.csuldw.com/2016/03/26/2016-03-26-loss-function/http://blog.youkuaiyun.com/google19890102/article/details/50522945最大似然估计: htt原创 2017-05-14 16:41:48 · 374 阅读 · 0 评论 -
光流法
光流法的理解 http://blog.youkuaiyun.com/carson2005/article/details/7581642维基百科原创 2017-05-08 16:03:20 · 507 阅读 · 0 评论 -
python使用环境的设置
download caffechange Makefile.config3. mkidr ~/pyenv cd ~/pyenvvirtualenv pycaffe #it will setup a new python environtment named pycafffe . pycaffe/bin/activate #it will activate your pycaffe原创 2017-05-16 09:35:34 · 514 阅读 · 0 评论 -
过拟合
lr_mult、decay_mult代表什么意思? http://www.cnblogs.com/malf-14/p/5540514.html 会出现overfitting,而当网络逐渐overfitting时网络权值逐渐变大,因此,为了避免出现overfitting,会给误差函数添加一个惩罚项,常用的惩罚项是所有权重的平方乘以一个衰减常量之和。其用来惩罚大的权值。学习速率是一个参数,用于确定更新原创 2017-05-11 17:20:05 · 340 阅读 · 0 评论 -
Alexnet
The Architecture ReLU Nonlinearity 非饱和非线性,然而,在这个数据集上,主要关注的是防止过度拟合,所以他们观察到的效果不同于我们在使用ReLUs时报告的训练集的加速能力。Training on Multiple GPUs 将网络分为两个GPU,当前的GPU特别适合于跨GPU并行化。因为他们可以直接读取和写入对方的内存,而不需要通过主机内存。 我们采用的并行化原创 2017-05-10 17:26:41 · 2433 阅读 · 0 评论 -
RCNN, Fast-RCNN, Faster-RCNN
http://closure11.com/rcnn-fast-rcnn-faster-rcnn%E7%9A%84%E4%B8%80%E4%BA%9B%E4%BA%8B/Faster-RCNN 论文笔记Faster RCNN由两个模块组成: 1.deep fully convolutional network that proposes regions 2.Fast R-CNN detector原创 2017-05-17 21:37:25 · 351 阅读 · 0 评论