论文笔记:A clockwork RNN

文章探讨了A clockwork RNN(CW-RNN),一种改进的RNN模型,其特征在于隐层单元的周期性计算,减少了参数数量。CW-RNN在序列生成和语音识别(spoken word classification)任务上表现出色,模型结构包含按速度分类的模块,仅在特定时间步长更新。实验结果显示,相比于传统RNN,CW-RNN在效率和准确性上有显著优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

A clockwork RNN(CW-RNN)


本文主要提出了一个新型的RNN模型,跟原始RNN不一样的地方就在于,因此隐层单元的不同,同时计算是有方向周期的,降低了参数量。
为什么有关rnn的文章大多是跟NLP有关的~
苦苦寻找与图像处理有关的attention model中

模型可视化结构:
这里写图片描述
隐层被分成了g个模块,每个模块的大小是k,每个模块内部是全连接的。模块j到i的recurrent仅当Ti小于Tj时才会存在。根据增长的阶段对模块进行分类,模块之间的传递在隐层之间是从右向左的,从慢的模块到快的模块。

CW-RNN跟RNN的主要不同之处在于在每个时间点t,只有模块i满足t%Ti=0,才会执行,产生输出。Ti的是任意的,这篇论文取得是Ti=2^(i-1).

序列生成的实验

论文里说,这个模型比普通的模型要快很多,正确率也好很多,我们看一下结果对比图(:) 超喜欢这个图,有木有,简洁明了,涵盖均值方差范围)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值