16、记忆增强神经网络:从NTM到DNC的探索

记忆增强神经网络:从NTM到DNC的探索

1. 序列分析与RNN潜力

在处理复杂问题如机器翻译时,循环神经网络(RNN)展现出了一定的有效性。理论上,RNN架构是通用的函数表示器,即RNN具有图灵完备性,这意味着在合适的连接和参数下,RNN能够学习解决任何可计算问题。但在实践中,要实现这种通用性极为困难,原因在于RNN可能的连接方式和参数值构成的搜索空间极其庞大,梯度下降法难以在这个巨大空间中为任意问题找到合适的解决方案。

2. 工作记忆与Neural Turing Machines(NTM)

2.1 工作记忆的启示

以一个简单的阅读理解问题为例:
- “Mary travelled to the hallway. She grabbed the milk glass there. Then she travelled to the office, where she found an apple and grabbed it. How many objects is Mary carrying?”

我们的大脑在解决这个问题时,类似于一个简单的计算机程序:
1. 为计数器分配一个内存位置;
2. 将计数器初始化为0;
3. 遍历段落中的每个单词:
- 如果单词是“grabbed”,则增加计数器的值;
4. 返回计数器的值。

大脑在阅读过程中会分配记忆并存储信息,这种临时存储和处理信息的系统被称为工作记忆,它是接下来要讨论的研究方向的主要灵感来源。

2.2 NTM的提出

2014年,研究人员引入了Neural T

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值