神经网络图灵机DAY1

回顾论文Neuron Turing Machines。现有传统的深度学习算法如cnn主要是基于学习好的模型对输入给出特定的输出,这些输出在特定的模型参数下是固定的、绝对的、不随时间和过去记忆变化的,这与人脑的工作机制明显不同,人的大脑应该是有一个类似于存储器的结构,可以记住一些学习到的知识,并在需要的时候可以迅速“检索”到并为当前的问题所用。现有的很多rnn架构就是一种可以基于过去的知识而对现有问题做出推测的一种方法,然而传统的rnn很难解决long-term dependency的问题,而在传统rnn基础上提出的能够解决long-term dependency的lstm又存在着能够“存储”的知识过少的问题。在这样的大环境下,本篇论文则基于人脑的“工作记忆”机制提出了用external memory来扩展神经网络的思路。基本思想很简单,就是为我们的神经网络额外开辟一个内存用来存储必要的信息,而用一个控制器来控制其内存的读写,这里的控制器可以使用lstm,这样额外开辟的内存就可以类比为RAM,而lstm的隐藏层可类比为register。利用lstm产生读写的控制“信号”,随后利用按内容寻址或按地址寻址从内存获取信息用于整个架构的任务,最后得到外部输出,也就是我们想要的结果。这里的寻址方式见论文Neural Turing Machines。

神经网络图灵机(Neural Turing Machine, NTM)是一种结合了传统神经网络图灵机概念的模型。传统神经网络相比,NTM具有以下几个主要区别: 1. **内存机制**: - **传统神经网络**:通常没有显式的内存机制,所有信息都存储在网络的权重中。 - **神经网络图灵机**:引入了显式的内存模块,可以进行读写操作。这种内存机制使得NTM能够处理更复杂和长距离依赖的任务。 2. **可微性**: - **传统神经网络**:通常是完全可微的,适合通过梯度下降等优化算法进行训练。 - **神经网络图灵机**:尽管引入了内存机制,但NTM通过设计可微的读写操作,使得整个模型仍然是可微的,从而可以像传统神经网络一样进行训练。 3. **控制机制**: - **传统神经网络**:通常由前馈网络或循环网络组成,控制机制较为简单。 - **神经网络图灵机**:引入了控制器(controller),可以是前馈网络或循环网络,负责管理内存的读写操作。这种控制机制使得NTM能够进行更复杂的操作和决策。 4. **任务适应性**: - **传统神经网络**:在处理特定任务时需要精心设计网络结构和超参数。 - **神经网络图灵机**:由于其内存和控制机制,NTM在处理需要记忆和推理的任务时表现出更强的适应性。 5. **计算复杂度**: - **传统神经网络**:计算复杂度相对较低,易于在现有硬件上实现。 - **神经网络图灵机**:由于引入了内存和控制机制,计算复杂度较高,训练和推理时间较长。 总结来说,神经网络图灵机通过引入显式的内存和控制机制,增强了传统神经网络在处理复杂任务时的能力,但也带来了更高的计算复杂度和训练难度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值