神经网络图灵机DAY3

博客指出之前的memory networks不是端到端的,训练繁琐且需复杂标签。这里介绍End-to-End Memory Networks,其在MN上实现了端到端。还给出了具体思路,包括单层和多层结构,以及模型获取记忆、网络分层输出等内容,并提供了参考链接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在之前谈到了memory networks,其通过external memory扩展了神经网络的学习能力,但是其不是end-to-end,导致整个训练过程非常繁琐,甚至需要给训练集打上很复杂的标签,这里我们将谈到End-to-End Memory Networks,其在MN上达到了end-to-end。具体思路如图:
这里写图片描述
在这里左边是一个单层的MN,右边则是在左边基础上扩展的多层。我们可以看到我们首先要给予模型足够的sentence存储,这里的将通过和矩阵相乘来得到相应的记忆,供给网络使用,且这里一层网络分为两部分,下面的input给上面的output概率分布,再有output和u相加输出。具体见https://blog.youkuaiyun.com/Irving_zhang/article/details/79111102

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值