卷积神经网络全解析:从基础到实战
1. 深度学习中的卷积神经网络概述
在深入探索深度学习时,你会惊奇地发现其中很多技术并非新鲜事物,但令人惊叹的是,如今它们却能发挥出前所未有的作用。这是因为研究人员终于掌握了让一些简单的旧解决方案协同工作的方法,从而使大数据能够自动进行过滤、处理和转换。
例如,像修正线性单元(ReLU)这样的新型激活函数并非新发明,但现在它们有了新的应用方式。ReLU 是一种神经网络函数,它让正值保持不变,将负值变为零。早在 2000 年,Hahnloser 等人就在一篇科学论文中首次提及了 ReLU。同样,几年前让深度学习声名大噪的图像识别能力也并非全新的技术。
近年来,深度学习借助卷积神经网络(CNNs,也称为 ConvNets)取得了巨大的进展。法国科学家 Yann LeCun 和其他杰出科学家在 20 世纪 80 年代末提出了 CNNs 的概念,并在 20 世纪 90 年代全面发展了这项技术。然而,大约 25 年后的今天,这些网络才开始展现出惊人的成果,在某些特定的识别任务中甚至超越了人类的表现。这一转变的原因在于,现在可以将这些网络配置成复杂的架构,使其能够从大量有用的数据中进行精细学习。
CNNs 有力地推动了近期深度学习的复兴。下面将探讨 CNNs 如何在诸如识别手写文本、精确确定图像中特定对象的位置或分离复杂图像场景的不同部分等任务中,帮助检测图像的边缘和形状。
2. 从字符识别开启 CNN 之旅
CNNs 并非新的概念,它们在 20 世纪 80 年代末作为解决字符识别问题的方案应运而生。Yann LeCun 在 AT&T 实验室研究中心工作时,与 Yoshua Bengio
超级会员免费看
订阅专栏 解锁全文
2948

被折叠的 条评论
为什么被折叠?



