一篇挺有意思的短文 《Deep Neural Networks Do Not Recognize Negative Images》。
首先说明一下 Negative Image的定义:原图像素值取补,如下图。
现象: 人类可以正常识别取补后的图像,但神经网络却将其随机分类。
下图是实验结果:
最近GAN很火,这里也提一下两种典型的神经网络错分情况:
Fooling Image: 人类完全不能识别出是啥玩意,但CNN却将其以很高概率分到某一类;
Adversarial Image: 对抗样本,人类很容易识别,但CNN完全分错。
本文的样本与上面两种均有不同之处,实验现象告诉我们CNN可能还无法像人类一样理解到语义层面,而语义理解很可能是以后人工智能的一个重要层面。
探讨了人类与深度神经网络对于负像识别的不同表现,揭示了当前深度学习技术在语义理解上的局限性。
541

被折叠的 条评论
为什么被折叠?



