
神经网络
文章平均质量分 58
小灰兔呼噜噜
每天多学习一点,生活更多彩一些
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Neural Networks 神经网络的表示和 back propagation 的学习方法
本文主要介绍了Neural Networks 神经网络的表示和学习方法,难点是back propagation的推导过程。本文转自 http://blog.youkuaiyun.com/abcjennifer/article/details/7758797。本文中讲解的back propagation的推导过程,没有看懂。deep learning官网上对这一部分解释得非常清楚,可参考http:/转载 2015-03-06 16:45:46 · 1249 阅读 · 0 评论 -
解读Batch Normalization
本文转载自:http://blog.youkuaiyun.com/shuzfan/article/details/50723877本次所讲的内容为Batch Normalization,简称BN,来源于《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》,是一篇很好的转载 2017-03-29 11:29:49 · 424 阅读 · 0 评论 -
图像反卷积Deconvolution的实现
关于图像反卷积,有很多种说法,下面转一篇觉得好理解且正确的解释。作者:张骞晖链接:https://www.zhihu.com/question/43609045/answer/130868981来源:知乎著作权归作者所有,转载请联系作者获得授权。卷积(convolution):卷积核为 3x3;no padding , strides=1<im转载 2017-03-09 18:05:31 · 18670 阅读 · 1 评论 -
RNN以及LSTM的介绍和公式梳理
转载请注明原文出处:http://blog.youkuaiyun.com/Dark_Scope/article/details/47056361前言好久没用正儿八经地写博客了,csdn居然也有了markdown的编辑器了,最近花了不少时间看RNN以及LSTM的论文,在组内『夜校』分享过了,再在这里总结一下发出来吧,按照我讲解的思路,理解RNN以及LSTM的算法流程并推导一遍应该是没有问题的。转载 2016-07-06 16:56:39 · 752 阅读 · 0 评论 -
循环神经网络(RNN, Recurrent Neural Networks)介绍
原文:http://www.uran.donetsk.ua/~masters/2013/etf/kamozina/library/article8.pdf循环神经网络(RNN, Recurrent Neural Networks)介绍 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-转载 2016-07-06 16:51:23 · 3367 阅读 · 0 评论 -
神经网络反向传播公式的推导
最近在学习http://neuralnetworksanddeeplearning.com,一本详细介绍了neural networks and deep learning的书,作者写得深入浅出,全面透彻,是自学神经网络和深度学习的绝佳读物。通过学习这本书,把之前从Stanford University公开课Machine Learning课程中学到的知识又巩固了一遍,以前一知半解的知识点,现原创 2015-12-26 23:22:13 · 3258 阅读 · 1 评论 -
模型选择之诊断偏离bias和方差variance的区别
本文转自这里本文主要讲解了machine learning中模型选择、评估的方法,重点在于诊断模型欠拟合或过拟合时用到的偏离bias和方差variance的概念,及其与正则化项的关系。原楼主在文中为了解释诊断偏离bias和方差variance的区别,定义并举例说明了二者的概念,深入浅出,值得学习。总的来说,同样的正则化参数,使得不同的训练数据训练出不同的模型。那么如果想评估转载 2015-05-25 21:04:16 · 5768 阅读 · 0 评论 -
机器学习——深度学习(Deep Learning)
本文转自这里。本文主要介绍了deep learning的基本概念,比较精简易懂。关键其中推荐了一些相关的阅读资料,存看。Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。Key Words:有监督学习与无监督学习,分类、回归,密度估转载 2015-05-26 15:15:02 · 753 阅读 · 0 评论 -
卷积神经网络
这篇文章讲得非常好,简直就是把我从一个对卷积神经网络CNN里面的各种概念(通道,卷积核大小,fitler size,共享卷积等等)还一头雾水的状态,讲到了豁然开朗的感觉。之前用CNN做了很多实验,但对里面的这些概念以及它们如何与图像做的计算,一直都没有搞清楚,这下总算是明白过来啦哈哈!好文推荐,好好学习~卷积神经网络转载请注明:http://blog.youkuaiyun.com/stdcoutz转载 2015-06-05 16:03:54 · 10886 阅读 · 1 评论 -
LSTM RNN 理论
看了一篇发表在优快云首页云计算栏目下的文章,不知道首页的文章怎么收藏和转载,所以我直接把文章地址贴在这里吧!其实这篇没怎么看懂,只是对RNN有了个非常模糊的初步了解,先看一遍存下来,日后再结合其他资料深入地学习,相信慢慢就懂了!《深入探究递归神经网络:大牛级的训练和优化如何修成?》http://www.youkuaiyun.com/article/2015-01-28/2823747原创 2015-06-17 17:04:27 · 1187 阅读 · 0 评论 -
深度学习中的感受野计算
如何计算感受野,看过的最正确最清楚的推导文章,推广一下。https://zhuanlan.zhihu.com/p/28492837转载:在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过slid...转载 2018-12-13 21:03:23 · 931 阅读 · 0 评论