
深度学习
clear-
这个作者很懒,什么都没留下…
展开
-
从NN到RNN再到LSTM(2): 循环神经网络RNN简介及计算
本文将简要介绍循环神经网络(Recurrent Neural Network,RNN),以及RNN的前向计算和误差反向传播过程。转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/details/46709965以下内容主要引自Alex Graves写的Supervised Sequence Labelling with Recurrent Neural原创 2015-07-01 14:28:55 · 8110 阅读 · 9 评论 -
从NN到RNN再到LSTM(1):神经网络NN前馈和误差反向传播
本文将简要介绍神经网络(Neural Network,NN)的相关公式及推导,包括前馈和误差反向传播过程。原创 2015-06-30 13:33:31 · 8573 阅读 · 5 评论 -
从NN到RNN再到LSTM(3): 长短时记忆LSTM简介及计算
本文将简要介绍RNN存在的梯度消失和梯度爆炸问题,然后介绍长短时记忆(Long Short-Term memory,LSTM)的相关公式及推导过程。转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/details/46724699以下内容主要引自Alex Graves写的Supervised Sequence Labelling with Recurr原创 2015-07-02 11:48:21 · 12890 阅读 · 33 评论 -
从NN到RNN再到LSTM(4): Gated Recurrent Units
本文将简要介绍GRU的相关知识。转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/details/51433875本文参考的文章有: Kyunghyun Cho, Bart van Merrenboer, Caglar Gulcehre Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yos原创 2016-05-17 10:07:34 · 4812 阅读 · 4 评论 -
神经网络机器翻译Neural Machine Translation(5): Gradient-based Optimization Algorithms
本文将介绍近两年应用到端到端的神经网络模型中的一些优化方法。转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/details/51567362本文将介绍近两年应用到端到端的神经网络模型中的一些参数优化方法,包括SGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam等。本文全文参考自博客:http://sebasti原创 2016-06-02 15:18:08 · 2842 阅读 · 4 评论 -
一个基于Tensorflow的神经网络机器翻译系统
一个基于Tensorflow的神经网络机器翻译系统Github地址:https://github.com/zhaocq-nlp/NJUNMT-tf系统完全基于Tensorflow最基本的array_ops,math_ops, nn_ops实现。实现了: 1. sequence-to-sequence model 2. transformer 3. model ensemble原创 2018-01-16 21:52:45 · 3944 阅读 · 0 评论