
深度学习
文章平均质量分 79
zhaofenqiang
这个作者很懒,什么都没留下…
展开
-
Ufldl Exercise:Self-Taught Learning
将稀疏自编码器与softmax回归结合起来,形成一个简单的三层网络,数据还是mnist,即第一层为28*28个神经元的输入层,中间一个200个神经元的隐藏层,后面再跟一个softmax的5分类loss层。 首先用稀疏自编码的方法无监督训练隐藏层,数据为5-9label的图像,将隐藏层的权值W1训练成下面这样的模式(之前已经做过的): 为200张图片,每张图片都是一个神经元的权值按顺序组成的数原创 2016-12-22 22:30:17 · 476 阅读 · 0 评论 -
Ufldl Exercise:Softmax Regression Softmax回归练习
今天学习了Ufldl上的Softmax回归,最后按照步骤完成了Exercise,教程很好,学到了很多,谢谢Ng…这里贴上代码作为记录。softmaxCost.mfunction [cost, grad] = softmaxCost(theta, numClasses, inputSize, lambda, data, labels)% numClasses - the number of class原创 2016-12-22 19:25:06 · 510 阅读 · 0 评论 -
Ufldl Exercise:Convolution and Pooling
网上已经有很多人对这个练习有过实践和经验分享了,参考了一些人的代码,都差不多,也只能这样写了基本上,只有pool时有点区别,不过感觉速度并不会差太多。 代码如下。cnnConvolve.mfunction convolvedFeatures = cnnConvolve(patchDim, numFeatures, images, W, b, ZCAWhite, meanPatch)%cnnCon原创 2016-12-23 23:03:56 · 490 阅读 · 0 评论 -
关于稀疏自编码器的自己的理解
今天看了一天的稀疏自编码器,也跑了UFLDL教程 http://ufldl.stanford.edu/wiki/index.php/Exercise:Sparse_Autoencoder 上的exercise,参考了很多博客的代码,谢谢http://blog.youkuaiyun.com/llp1992/article/details/45579615 , 很快就跑通了,最后得到的权值结果, 这原创 2016-12-21 21:47:43 · 10376 阅读 · 3 评论 -
《21天实战Caffe》第六章习题6.4 自己的手写体数字图片送入lenet测试
在看完卜居老师的《21天实战Caffe》第六章后收获颇丰,对之前在Caffe官网看的Tutorial,超入门的examples mnist的训练与识别终于有了一个比较清晰的认识。果然还是对英语写的指导不太敏感呢(T_T)...感谢卜居大大写的书~~首先,了解一下什么是minst,如果说“Hello World”是所有编程语言的第一个入门练习的话,那mnist就是深度学习方面的“Hello原创 2016-12-01 21:23:19 · 3472 阅读 · 8 评论 -
Caffe 遇到过的问题
2017.01.09 make -j命令导致系统奔溃,大概已经编译完了,不过就是卡在那个终端不退出,鼠标键盘任何输入都没有反应,很奇怪,前两天还没有这种情况的。。目前原因不明,不过在多次尝试后,使用make -j4 或 make -j8命令就可以正常编译了。原创 2017-01-09 12:22:07 · 1328 阅读 · 2 评论 -
论文笔记 Ensemble of Deep Convolutional Neural Networks for Learning to Detect Retinal Vessels in Fundus
最近读了几篇关于DRIVE数据集的文章,来完成斯坦福公开课cs231n最后的Final Project,还有zju两门课的作业,哈哈哈,一举三得(^__^) ~~ 大概目标就是分割血管,如下图: 虽然是个很老的数据库,不过近几年在深度学习的热度下,又有很多人拿来做,尤其是这几个印度学(a)者(san),Ensemble of Deep Convolutional Neural Net原创 2017-01-12 12:16:43 · 1908 阅读 · 2 评论