
神经网络
BruceCheen
这个作者很懒,什么都没留下…
展开
-
递归神经网络教程,第1部分 - RNN简介
原文在这里 递归神经网络(RNN)是流行的模型,在许多NLP任务中表现出很大的希望。 但是,尽管他们最近受欢迎,但我发现只有有限数量的资源可以解释RNN如何工作以及如何实施它们。 这就是本教程的内容。 这是一个多部分系列,我计划在其中涵盖以下内容:RNNs简介(本文)使用Python和Theano实现RNN了解反向传播时间(BPTT)算法和消失的梯度问题实现GRU / LSTM RN...翻译 2018-07-15 16:53:47 · 1357 阅读 · 0 评论 -
Self Organizing Maps (SOM): 一种基于神经网络的聚类算法
参考链接自组织映射神经网络, 即Self Organizing Maps (SOM), 可以对数据进行无监督学习聚类。它的思想很简单,本质上是一种只有输入层–隐藏层的神经网络。隐藏层中的一个节点代表一个需要聚成的类。训练时采用“竞争学习”的方式,每个输入的样例在隐藏层中找到一个和它最匹配的节点,称为它的激活节点,也叫“winning neuron”。 紧接着用随机梯度下降法更新激活节点的参数。同...转载 2019-02-18 09:10:58 · 2912 阅读 · 0 评论 -
字符级别的语言模型---恐龙岛
Character level language model - Dinosaurus land(字符级别的语言模型—恐龙岛)欢迎来到Dinosaurus岛! 6500万年前,恐龙存在,在这项任务中他们又回来了。你负责一项特殊任务。领先的生物学研究人员正在创造新的恐龙品种并将它们带到地球上,而你的工作就是为这些恐龙命名。如果恐龙不喜欢它的名字,它可能会变成beserk,所以明智地选择!(choo...翻译 2019-02-21 18:20:52 · 1434 阅读 · 0 评论 -
学习深度学习之卷积神经网络CNN及tensorflow代码实现示例
添加链接描述转载 2019-01-30 08:54:44 · 523 阅读 · 0 评论 -
经典论文翻译:Deep Residual Learning for Image Recognition
摘要:深度神经网络很难训练。我们提出了一种残差学习框架来尝试解决这一问题。We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions。我们提供全面的经验证据表明这些残...转载 2019-01-27 22:05:14 · 1721 阅读 · 0 评论 -
详细解释CNN卷积神经网络各层的参数和链接个数的计算
https://blog.youkuaiyun.com/dcxhun3/article/details/46878999转载 2019-01-27 10:42:08 · 582 阅读 · 0 评论 -
学习残差resnet网络
添加链接描述ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。先看看全图:下面我们从实用的角度去看看ResNet。1.R...转载 2019-01-27 09:58:13 · 359 阅读 · 0 评论 -
学习:SSD(single shot multibox detector)算法
这篇博客主要介绍SSD算法,该算法是最近一年比较优秀的object detection算法,主要特点在于采用了特征融合。论文:SSD single shot multibox detector论文链接:https://arxiv.org/abs/1512.02325算法概述:本文提出的SSD算法是一种直接预测bounding box的坐标和类别的object detection算法,没有生...转载 2019-01-22 11:09:27 · 413 阅读 · 0 评论 -
卷积神经网络(CNN)反向传播算法
1 回顾DNN的反向传播算法2 CNN的反向传播算法思想3. 已知池化层的δl\delta_{l}δl,推导上一隐藏层的δl−1\delta_{l-1}δl−14. 已知卷积层的δl\delta^lδl,推导上一隐藏层的δl−1\delta^{l-1}δl−15 已知卷积层的δl\delta^{l}δl,推导该层的W,b的梯度6 CNN反向传播算法总结...转载 2019-01-21 19:40:30 · 250 阅读 · 0 评论 -
CNN的反向传播推导
卷积神经网络三个重要概念:局部感受野(local receptive fields)共享权重(shared weights)池化(pooling)(1)局部感受野:在全连接的网络中,输入被描绘成纵向排列的神经元,但是在卷积网络中我们把它看成28x28的方形:输入神经元的一小片区域会被连接到下一层隐层,这个区域被称为局部感受野,然后在输入图像中移动局部感受野,每移动一次,对应一个隐层...转载 2019-01-21 17:48:29 · 2981 阅读 · 0 评论 -
lgeos = CDLL("geos_c.dll")报错Shapely
添加链接描述conda install -c conda-forge shapely原创 2019-01-06 11:58:50 · 6871 阅读 · 0 评论 -
学习使用Colab
Colab学习转载 2018-12-06 14:06:26 · 475 阅读 · 0 评论 -
第2部分 - 使用Python,Numpy和Theano实现RNN
这是Recurrent Neural Network Tutorial的第二部分。 第一部分在这代码在这个github上 在这一部分中,我们将使用Python从头开始实现完整的Recurrent Neural Network,并使用Theano优化我们的实现,用于在GPU上执行操作的库。完整的代码点击这。我将跳过一些对理解回归神经网络不重要的样板代码,但所有这些代码也在Github上。...翻译 2018-07-15 22:11:58 · 321 阅读 · 0 评论 -
可视化神经机器翻译模型(基于注意力机制的Seq2seq模型)
复制链接5月25日更新:新图形(RNN动画,文字嵌入图),颜色编码,详细阐述了最后的注意事例。**注意:**下面的动画是视频。 触摸或悬停它们(如果您使用鼠标)以获得播放控件,以便您可以根据需要暂停。序列到序列模型是深度学习模型,在机器翻译,文本摘要和图像字幕等任务中取得了很大成功。 谷歌翻译在2016年底开始在生产中使用这种模型。这两个模型在两篇开创性的论文中进行了解释(Sutskever...转载 2019-03-21 15:13:15 · 2217 阅读 · 0 评论