一篇挺有意思的短文 《Deep Neural Networks Do Not Recognize Negative Images》。
首先说明一下 Negative Image的定义:原图像素值取补,如下图。
现象: 人类可以正常识别取补后的图像,但神经网络却将其随机分类。
下图是实验结果:
最近GAN很火,这里也提一下两种典型的神经网络错分情况:
Fooling Image: 人类完全不能识别出是啥玩意,但CNN却将其以很高概率分到某一类;
Adversarial Image: 对抗样本,人类很容易识别,但CNN完全分错。
本文的样本与上面两种均有不同之处,实验现象告诉我们CNN可能还无法像人类一样理解到语义层面,而语义理解很可能是以后人工智能的一个重要层面。