
深度学习
文章平均质量分 78
autocyz
本人在读硕士一枚,学习方向是图像处理,希望能有所进步
展开
-
ubuntu下让theano使用GPU
ubuntu下让theano使用GPU在ubuntu下安装完theano以及cuda后,可以使用如下程序来测试你当前是否使用了GPU:from theano import function, config, shared, sandboximport theano.tensor as Timport numpyimport timevlen = 10 * 30 * 768 # 10 x #c原创 2016-06-14 21:49:59 · 4809 阅读 · 1 评论 -
MTCNN实现流程
MTCNN实现流程文章:https://arxiv.org/pdf/1604.02878.pdfcode:1、mxnet上的实现:https://github.com/Seanlinx/mtcnn2、tensorflow上的实现:https://github.com/AITTSMD/MTCNN-Tensorflow3、pytorch上的实现: https://github.com/Tro...原创 2018-09-21 11:59:37 · 5574 阅读 · 0 评论 -
Ubuntu16.04+cuda8.0+caffe安装教程
1、安装nvidia驱动首先去官网上查看适合你GPU的驱动(http://www.nvidia.com/Download/index.aspx?lang=en-us) 例如,本人的GPU适合的驱动如图: 执行如下语句,安装sudo add-apt-repository ppa:graphics-drivers/ppasudo apt-get updatesudo apt-get instal原创 2016-08-24 14:00:52 · 84467 阅读 · 23 评论 -
L1相较于L2的稀疏性
L1相较于L2的稀疏性在机器学习中,常见的正则化项有L1(L=∑|w|L=\sum|w|)和L2(L=||w||2L=||w||^2),并且也经常会看到L1相较于L2有较高的稀疏性,虽然记住了这句话的内容,但总是不理解其具体含义,也不理解为何又稀疏性,在研究了一番后,有了一些理解,因此分享给大家。 (本文部分内容和图片引用自:https://www.zhihu.com/question/37096原创 2017-08-01 10:50:44 · 6200 阅读 · 0 评论 -
zero-shot learning
Zero-shot Learning参考文献《Zero-Shot Learning with Semantic Output Codes》背景在分类问题中,因为数据库大小有限,因此在使用分类模型进行预测时,出现了在训练集没有出现过的类别。举个例子,我们有个小型数据库,里面所含的类别只有人、鸟、汽车,经过我们的训练,发现模型对于这些类别的目标已经有很好的性能了,但是突然出现了一个新的类别——狗,此时模原创 2017-06-01 20:34:54 · 6049 阅读 · 0 评论 -
基于全连接孪生网络的目标跟踪(siamese-fc)
Fully-Convolutional Siamese Networks for Object Tracking这两年可以说deeplearning已经占领了visual object tracking这个领域,但是对于跟踪问题来说,这些基于DL的做法虽然能够很好的提升跟踪的效果,但是在时效性这一方面却做的很差,这是因为DL复杂的模型往往需要很大的计算量,尤其是当使用的DL模型在跟踪的时候对模型进行原创 2016-11-18 15:17:37 · 40236 阅读 · 32 评论 -
Contrastive Loss (对比损失)
Contrastive Loss (对比损失)在caffe的孪生神经网络(siamese network)中,其采用的损失函数是contrastive loss,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。contrastive loss的表达式如下: L=12N∑n=1Nyd2+(1−y)max(margin−d,0)2L=\frac{1}{2N}\sum_{n=1}原创 2016-11-13 16:35:03 · 79183 阅读 · 10 评论 -
ubuntu16.04安装caffe以及各种问题汇总
本文参考了: https://github.com/BVLC/caffe/wiki/Ubuntu-16.04-or-15.10-Installation-Guide https://gist.github.com/wangruohui/679b05fcd1466bb0937f#file-caffe-ubuntu-15-10-md http://blog.youkuaiyun.com/g0m3e/artic原创 2016-06-29 16:19:18 · 32320 阅读 · 7 评论 -
ubuntu16.04安装 cuda7.5
在文章开始前,先辨析几个概念GPU、NVIDIA、NVIDIA驱动、CUDA、cudnn等,这些概念对于一个新手来说肯定是很晕的,正如我当初一样,所以我这里就稍微介绍一下这几个概念:GPU:Graphics Processing Units,也就是我们常说的显卡。现在的笔记本或者台式机都会有显卡,但是能够让我们用来做并行计算的真正的GPU就只有NVIDIA出产的GPU了。NVIDIA:GPU生产原创 2016-07-06 17:47:23 · 10589 阅读 · 2 评论 -
中国计算机学会推荐国际学术刊物、会议(人工智能与模式识别)
中国计算机学会推荐国际学术刊物1、A类刊物简称刊物全称出版社网址AIArtificial IntelligenceElsevierhttp://www.journals.elsevier.com/artificial-intelligence/TPAMIIEEE Trans on Patte原创 2015-04-03 13:23:02 · 3297 阅读 · 0 评论 -
反向传播算法(back propagation)
反向传播算法是多层神经网络的训练中举足轻重的算法,本文着重讲解方向传播算法的原理和推导过程。因此对于一些基本的神经网络的知识,本文不做介绍。在理解反向传播算法前,先要理解神经网络中的前馈神经网络算法。前馈神经网络如下图,是一个多层神经网络的简单示意图: 给定一个前馈神经网络,我们用下面的记号来描述这个网络: LL:表示神经网络的层数; nln^l:表示第ll层神经元的个数; fl(∙)f原创 2016-06-08 16:40:16 · 6341 阅读 · 0 评论 -
神经网络中的各种优化方法
神经网络中的各种优化方法大家耳熟能详的优化方法有梯度下降法(Gradient Descent)、随机梯度下降法(Stochastic Gradient Descent)、Adam方法等等。虽然很多听过甚至用过这些方法,但是却未必能够说出他们的区别,已经什么时候改用什么样的优化算法。这篇文章将会从原理、区别和使用场景等角度详细介绍神经网络中的各种优化算法。什么是优化算法优化算法就是一种能够帮我...原创 2018-10-17 17:48:27 · 30773 阅读 · 3 评论