
深度学习
flash_gogogo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【caffe-Windows】caffe+VS2013+Windows无GPU编译caffe框架
主要参考http://blog.youkuaiyun.com/zb1165048017/article/details/51355143VS2013安装包:链接:http://pan.baidu.com/s/1b6VDJg 密码:f2jp熟悉完CPU版本的配置以后,可以启用GPU的配置:http://blog.youkuaiyun.com/zb1165048017/article/details/5154原创 2017-10-13 14:43:46 · 540 阅读 · 0 评论 -
【caffe-Windows】caffe在Windows下训练深度学习网络并测试(以mnist为例)
上篇博文:http://blog.youkuaiyun.com/gyh_420/article/details/78225923 之前已经讲了怎么在windows下面无GPU来安装caffe,现在我们来看看我们安装的caffe是否可以使用。 D:\Caffe\caffe-master\examples\mnist 找到mnist路径,这个是我的电脑的上的路径,你的路径按你自己的电脑来找到。 如图划线原创 2017-10-13 21:24:29 · 732 阅读 · 0 评论 -
卷积神经网络的卷积层和池化层
转载:http://www.cnblogs.com/zf-blog/p/6075286.html卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC(1)卷积层:用它来进行特征提取,如下:输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里转载 2017-11-18 15:09:41 · 5321 阅读 · 0 评论 -
实现反向传播算法的细节
这两天在看CS231n的课程,不得不感慨我国目前的教育制度确实很难培养出真正高端的人才,别人的课程有那么多的精心准备的课件、笔记和供学生练习的任务和代码,让你从原理到工程的实现全过一遍,反观我所在的所谓的双一流大学的课程。。呵呵哒。。。不说闲话了,这里讲下反向传播中的链式法则的实现细节。 我们以这个公式为例,实现反向传播的链式法则,在神经网络中的反向传播的方式是一样的,只是函数比这个复杂些。原创 2017-11-29 22:26:32 · 757 阅读 · 0 评论 -
深度学习中的卷积计算及caffe的实现
图像卷积及Caffe中的卷积实现 原创内容,转载请注明出处。 本文简单介绍了图像卷积相关的知识以及Caffe中的卷积实现方法,写作过程中参考了很多很赞的资料,有兴趣的读者可以从【参考资料】查看。 博文中的错误和不足之处还望各位读者指正。什么是卷积? 卷积原本是信号处理总的一个专有名词,按照信号的属性,常见的分为一维卷积和二维卷积,按照我的理解就是原创 2017-11-17 09:09:55 · 2284 阅读 · 0 评论 -
深度学习中感受野的计算
一直以来很奇怪感受野是怎么计算的,这里参考了两个博客总算是看懂了。 http://blog.youkuaiyun.com/skying_li/article/details/70158924 http://blog.youkuaiyun.com/kuaitoukid/article/details/46829355记住一个从底向上的递推公式:F(i,j-1) = kernel_size_j + (F(i,j)-1)*s原创 2018-02-28 10:56:58 · 3123 阅读 · 0 评论 -
对于基于概率模型的学习方法中调参的理解
一些总结性的原则来自知乎,我觉得写的还不错,链接:https://www.zhihu.com/question/25097993/answer/127472322。我最后也会附上。最近结束了在TX做游戏AI的实习,对目前的监督学习的方法有了进一步的理解,其实涉及到的调参主要有两个方面吧,一类参数是和数据本身相关的参数,比如数据各类型的比例,提取出来的特征,数据异常值的过滤之类的。另一类就是模型参数...原创 2018-07-14 15:20:24 · 531 阅读 · 0 评论