机器学习与深度学习系列连载: 第二部分 深度学习(二十二) 机器记忆 Machine Memory

本文探讨了基于注意力机制的Memory Networks,包括外部存储读取、问答系统中的应用、视频问答中的视觉关注,以及可读写记忆如Neural Turing Machine的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器记忆 Machine Memory

我们已经讨论过Attention机制,基于注意力机制,我们继续讨论 Memory Network。

1. 外部存储

我们进行DNN或者RNN之前,数据可以用Readiing controller 从外部读取进来。
在这里插入图片描述
Ref: http://speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2015_2/Lecture/Attain (v3).ecm.mp4/index.html

2. 问答系统

问答系统对于文章内容的搜寻其实就是机器存储内容的搜寻。
在这里插入图片描述

这种搜寻是完全基于Attention机制的。
在这里插入图片描述
Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus, “End-To-End Memory
Networks”, NIPS, 2015

除了输入attention机制外,我们尝试增加输入正常机制+hopping(反复复习,重新传入q),最后得出结果。

在这里插入图片描述

3. 视频问答 Visual Question Answering

在视频问答系统中,我们从每一块图片区域中选择内容。工具还是Attention

在这里插入图片描述
论文Huijuan Xu, Kate Saenko. Ask, Attend and Answer: Exploring Question-Guided Spatial Attention for Visual Question Answering. arXiv Pre-Print, 2015 中阐释了视频问答系统
在这里插入图片描述

3. 可以读写的Memory

谷歌提出的Neural Turing Machine 挑战了经典的冯诺依曼架构,但是基础还是Attention

在这里插入图片描述
(1)首先我们采用attention机制从记忆中产生r0
在这里插入图片描述
(2)然后将r0 和x1 输入RNN 产生 k,e,a
k与m进行运算(相似度运算),产生新的attention r, e决定是否需要删除(e在0到1之间),a决定是否需要新增。
在这里插入图片描述

(3)运算过程
在这里插入图片描述

(4)简单的整体示意图
在这里插入图片描述

本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229,斯坦福大学cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值