李宏毅《生成式人工智能导论》 | 第11讲-第14讲:大型语言模型的可解释性、能力评估、安全性

人工智能的可解释性

引入

人工智能是一个黑盒,搞不清楚他们在想什么?

想法1:没有Transparency,没有开源

想法2:不是Interpretable,思维不透明

一眼就能看穿,思维透明的模型是Interpretable,但其实这里有个争议是如何去衡量什么是一眼就能看穿的。有人说决策树就是Interpretable,但当决策树非常非常复杂时,复杂到无法一眼看穿在干什么。

想法3:没有办法解释为什么有这个输出,无法Explainable

语言模型是Not Interpretable但也有可能是Explainable,因为可以直接询问模型决策的过程

下面的课程集中在讨论可解释性Explainable,一个复杂的人工智能肯定不是Interpretable的,聪明的人工智能做出的决策肯定不是简单到一眼就让你看穿的。

可解性

  1. 可以找出影响输出的关键输入

方法1:观察每一个输入的改变对输出的影响

下面图片展示了盖住输入对输出的影响,还可以采用计算Gradient梯度等方法知道输入和输出的关系

方法2:分析Attention Weight观察每一个token对输出的影响力

  1. 可以直接问,为什么得到这个答案

举例1:输入的每一个词汇和输出之间的关系,可以直接要求语言模型输出每个词对于判断的重要性

举例2:语言模型对自己答案的信心,原来通过输出的概率来判断信心,但现在可以直接问语言模型对答案的信心分数是多少?

问题:语言模型提供的解释一定可信吗?

语言模型提供的解释不一定可信

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值