解读黑盒Transformer模型与探索任务无关的Transformer模型
1. 解读黑盒Transformer模型
1.1 LIME方法与特征判定
在自然语言处理(NLP)中,目标是确定一个或多个特征的局部存在与否,这里的特征是可重构为单词的标记。对于LIME而言,g代表一个Transformer模型或其他机器学习模型,G则是包含g的一组Transformer模型。LIME算法可应用于任何Transformer模型,它会针对一个单词,在其局部上下文中搜索其他单词,从而为该单词的预测提供局部上下文解释。
1.2 可视化接口探索
可访问 交互式Transformer可视化页面 。该可视化界面提供直观的指令,用户可一键开始分析特定层的Transformer因子。选择一个因子后,能点击想要可视化的层。首次可视化会展示因子层逐层的激活情况。例如,因子421在较低层关注“separate”的词汇领域,随着可视化到更高层,会出现更长远的表示,该因子开始将“separate”与“distinct”关联起来。用户可尝试多个Transformer因子,观察其如何逐层扩展对语言的感知和理解。
1.3 模型的随机性与多候选输出
Transformer模型在选择标记前会生成候选。以GPT - 2模型为例,对于句子 “The sun rises in the _____.”,它选择了 “sky”,但也有其他候选,如 “morning”。由于模型具有随机性,多次运行可能会得到不
超级会员免费看
订阅专栏 解锁全文
7140

被折叠的 条评论
为什么被折叠?



