
深度学习LSTM
文章平均质量分 75
cuncaoxin1
这个作者很懒,什么都没留下…
展开
-
improving protein disorder prediction by deep bidirectional lstm rnn
动机:捕获蛋白质的结构序列相邻序列之间的长距离相互作用是生物信息学中长期存在的挑战性问题。近来,长时间记忆(LSTM)网络通过记录长时间事件中有用的过去信息,显着提高了语音和图像分类问题的准确性。在这里,我们在蛋白质内在障碍预测问题中实施了深层双向LSTM复发神经网络。结果:新方法,命名为SPOT-Disorder已经稳步改进了使用传统的基于窗口的神经网络(SPINE-D)以及类似方法在短时间翻译 2017-09-26 21:01:38 · 662 阅读 · 0 评论 -
Generating Sequences With Recurrent Neural Networks(1)
摘要本文展示了LSTM循环神经网络如何能通过预测数据点来生成复杂序列。 该方法针对文本(其中数据是离散的)和在线手写(数据是实值的)进行了演示。 然后通过允许网络对文本序列进行预测来扩展到手写合成。 所产生的系统能够以各种各样的风格产生高度逼真的草书手写。introduction循环神经网络(RNN)是一类丰富的动态模型,已被用于在音乐,文本和运动数据的捕获。可以通过一次处理实际数据序原创 2017-09-25 13:24:22 · 3135 阅读 · 0 评论 -
Sequence to Sequence Learning with Neural Networks论文笔记
摘要Dnn是强大的模型,在困难的学习任务上取得了出色的表现。尽管每当有很大的标签训练集时,DNN都能很好的工作,但是他们不能用于将序列映射到序列的工作。在本文中,我们提出了一般端到端的方法,对序列标签做出最小假设。我们的方法使用多层LSTM将输入序列映射到固定维度的向量,然后在使用另一个深LSTM来从向量中解码目标序列。Introduction(1)DNN介绍,举例。很强大(2)尽原创 2017-09-24 22:13:46 · 2085 阅读 · 1 评论 -
On the difficulty of training Recurrent Neural Networks
1 摘要关于正确训练循环神经网络有两个常见的问题,梯度消失和梯度爆炸。 在本文中,我们试图通过从分析,几何和动态系统的角度探索这些问题来提高对潜在问题的理解。 我们的分析被用来证明一个简单而有效的解决方案。 我们提出梯度范数裁剪策略来处理爆炸梯度和消失梯度问题的软约束。 我们验证了我们的假设,并在实验部分提出了解决方案。2.前言RNN网络的结构与标准多层感知器的结构类似,区别在于我翻译 2017-11-15 20:46:39 · 1619 阅读 · 1 评论