可解释性(2)—— RNN可视化工具RNNVis

本文介绍了RNN可解释性工具RNNVis,它利用期望反应值表示多对多的关系,并通过谱聚类进行分析。RNNVis能够展示在句子预测过程中隐藏状态的变化和信息更新,适用于语言模型、RNN与LSTM对比以及情感分析等场景,有助于理解RNN的行为特征。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、背景

解释RNN为什么那么困难:

      1. hidden state多,更新hidden state所用的参数更多。

      2.使用RNN处理的文本等序列数据,本身语义信息繁多,难以解释。

      3.输入一个单词会导致很多hidden state产生变化,而一个hidden state又受很多单词影响,多对多的关系难以分析。

ok,RNNVis[1]自称是解决第3点的,源代码为:https://github.com/myaooo/RNNVi

二、RNNvis做了什么

      1. 用期望反应值表示这种多对多的关系:每个hidden state对每个word有一个期望反应值。

      2. 这样子就可以搞一个二分图了对吧表示多个word和多个hidden state的多对多关系,但是这么多条边咋细看研究呀,谱聚类了解一下。

      3. 当一个句子在预测的过程中,每一个time step,遗忘了多少信息,新增了多少信息,这些信息又和哪些hidden state cluster有关,而这些hidden state cluster,又和哪些word cluster有关,这不就能分析特征了吗!听起来特别美好!

三、RNNVis怎么做的

    1. 期望反应值计算:

                                                                   \Delta h^{\left( t \right)} = h^{\left( t \right)} - h^{\left( t-1 \right)}

      t 时刻的hidden state vector h^{\left( t \right)} 受 h^{\left( t-1 \right)} 和 x^{\left( t \right)} 影响,所以 \Delta h^{\left( t \right)} 受 h^{\left( t-1 \right)} 和 x^{\left( t \right)} 影响,因此 \Delta h^{\left( t \right)} 可以反应一个单词想知道一个hidden state的影响只能针对不同的,但因为 h^{\left( t-1 \right)} 的影响,只能针对 h^{\left( t-1 \right)} 求期望了。

                                               

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值