随着DeepMind研发的围棋机器人AlphaGo接连击败了世界上的顶尖棋手,人工智能开始得到越来越多的关注。尤其是近年来计算机算力的增长以及可靠数据越来越容易获取,人工智能中的深度学习领域得到了高速发展,深度学习模型在一些任务上的智能可以达到甚至超过人类水平。
但是在光鲜亮丽的面纱之下笼罩着一团迷雾!深度学习模型因其大量的参数、复杂的结构,以及给出的结果难以直接被人们所理解,甚至被诟病为“黑盒模型”。为了能解决这类问题,近期飞桨推出了可解释性算法库InterpretDL,用户可以调用其中的算法来让自己的模型“说人话”。

为什么需要可解释性?
当前,也许有人会说黑盒就黑盒呗,模型效果好就行了吧?其实不然!模型的准确率高只能算是体现数据和推理结果的相关性,但是无法解释因果关系,这种不可解释性可以说将成为深度学习技术应用的“拦路虎”!尤其在金融、法律、医疗、安防等敏感领域,模型的可解释性更是尤为重要!

例如在AI医疗实践中,深度学习模型可以识别医学影像,辅助医生判断肿瘤等疾病,但模型依据哪些位置、什么特征给出了判断的结果?决策的依据是否符合医学知识?如果不能解答这些问题,AI模型很难得到医生的信任。
再如在AI辅助司法过程中,模型根据基本的案情给出了判决结果,这个结果将决定一个人或一群人的命运,在得出这个结果过程中有没有夹杂偏见、歧视等因素?如果无法解释判罚的由来以及合理性,则很容易带来不良社会影响。
此外,这种『黑盒』特性也给模型的研发带来难题。很多模型的准确率可以

为解决深度学习模型的“黑盒”问题,飞桨推出InterpretDL可解释性算法库,支持计算机视觉、自然语言处理等领域模型解释。通过多种算法帮助理解模型决策依据,提升透明度。
最低0.47元/天 解锁文章
1833

被折叠的 条评论
为什么被折叠?



