
可解释性机器学习
文章平均质量分 89
卡拉比丘流形
一枚对社会心理学、预防医学、数学建模和人工智能感兴趣的小菜鸟【本:大数据→研:人工智能(情感计算方向)】,欢迎大家一起来交流学习呀!
展开
-
四、GradCAM可解释性分析——可解释性机器学习(DataWhale组队学习)
首先简要的回顾了CAM算法的基本流程,重点介绍了GradCAM算法的细节。最后介绍了Grad-CAM++、ScoreCAM和LayerCAM对GradCAM算法缺点的改进。原创 2022-12-23 17:54:47 · 1345 阅读 · 0 评论 -
三、CAM可解释性分析——可解释性机器学习(DataWhale组队学习)
CAM算法奠定了可解释分析的基石。原创 2022-12-18 00:52:24 · 1339 阅读 · 0 评论 -
二、ZFNet可视化卷积神经网络——可解释性机器学习(DataWhale组队学习)
本次学习了ZFNet,它是在AlexNet之后新的改进,它主要提出了一种反卷积的思想,使用一个多层的反卷积网络来可视化训练过程中特征的演化及发现潜在的问题。- 发现学习到的特征远不是无法解释的,而是特征间存在层次性,层数越深,特征不变性越强,类别的判别能力越强;- 通过可视化模型中间层,在 alexnet 基础上进一步提升了分类效果;- 遮挡实验表明分类时模型和局部块的特征高度相关;- 预训练模型可以在其他数据集上fine-tuning得到很好的结果。- 模型越深越有分类有效性原创 2022-12-15 23:53:03 · 942 阅读 · 0 评论 -
一、导论——可解释性机器学习(DataWhale组队学习)
人工智能黑箱子灵魂之问Al的脑回路是怎样的?Al如何做出决策?是否符合人类的直觉和常识?Al会重点关注哪些特征,这些特征是不是真的有用?如何衡量不同特征对Al预测结果的不同贡献?Al什么时候work,什么时候不work?AI有没有过拟合?泛化能力如何?会不会被黑客误导,让AI指鹿为马?如果样本的某个特征变大15,会对Al预测结果产生什么影响?如果Al误判,为什么会犯错?如何能不犯错?两个AI预测结果不同,该信哪一-个?能让AI把学到的特征教给人类吗?原创 2022-12-13 19:57:05 · 1134 阅读 · 0 评论