机器学习自动写诗-学习笔记

本文深入探讨了循环神经网络(RNN)的工作原理,强调其记忆特性在处理序列数据时的重要性,同时揭示了RNN面临的梯度消失与爆炸问题。文章详细介绍了LSTM(长短期记忆网络)作为解决方案,通过输入门、输出门和遗忘门机制,有效解决了长期依赖问题,使网络能够记住更久远的输入并适时遗忘不相关信息。

 

要先将字编码成向量

 

要对之前的信息有记忆

相同的输入,写诗,可能有不同的输出。

可以发现,输入不止与当前输入有关,还和之前的输入有关。要有记忆!

将隐藏层的激活值利用

 

循环神经网络

a0=0,初始值=0

上次输入的不同,记忆值不同,使得现在相同的输入可以得到不同的输出。


 

缺点:梯度爆炸和梯度消失

记忆值不断相乘累加。w^n

梯度爆炸和梯度消失:wn(w>1和w<1)。

w'=w-a*Δ

 

需要一个模型,能够记忆久远输入和近期遗忘。


 

LSTM::long short-term memory长短期记忆网络

加入输入门、输出门和遗忘门。使用sigmod函数。

sigmod函数:0-1之间。中点0.5

 

LSTM:

f:遗忘门,forget gate

 

 

循环神经网络分类概述:

many to many:

  • 有多少输入,就多少输出
  • 输入输出数目不等

many to one

 

情感分析,差评还是好评。

one to many

看图说话,写诗就是这个模型。

 

双向循环网络:

不止和之前输入有关,还和之后的输入相关。

 

深度循环神经网络:

很多隐藏层

 作诗用的是lstm:只输入第一个字,一个一个输出接着作诗。

 

 

 L1+L2+...+Ln

再求梯度。

 

代码:

 

 

转载于:https://www.cnblogs.com/wxl845235800/p/10085336.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值