深入探索 PyTorch:从入门到实践
1. 深度学习在当今世界的发展
在过去几年里,神经网络无处不在。它们从计算机科学中鲜少被应用的有趣概念,发展成为我们日常生活中不可或缺的一部分,如手机中的图像优化、语音指令识别,以及电子邮件软件自动生成上下文相关回复等。同时,神经网络在自动驾驶汽车、计算机击败人类棋手等方面也取得了显著成就,但也被用于一些不良用途。
尽管感觉神经网络和深度学习的发展非常迅速,但其实相关概念可以追溯到很久以前。1989 年就证明了神经网络可以近似替代任何数学函数,90 年代末卷积神经网络就被用于支票数字识别。然而,过去 10 年深度学习才出现爆发式发展,主要原因是图形处理单元(GPU)性能的提升和成本的降低。
GPU 最初为游戏设计,每秒需要执行大量矩阵运算来渲染游戏画面,而标准 CPU 并不适合这些运算。2009 年的一篇论文指出,训练神经网络也基于大量矩阵运算,因此 GPU 可以加速训练并使更大、更深的神经网络架构成为可能。此外,Dropout 等技术的引入不仅加快了训练速度,还提高了训练的泛化能力,避免过拟合。近年来,谷歌等公司推出了张量处理单元(TPU),专门用于快速执行深度学习任务。
ImageNet 竞赛也是衡量深度学习进展的重要指标。自 2010 年以来,每年的 ImageNet 大规模视觉识别挑战赛都会对参赛者进行测试。2012 年,深度卷积神经网络以 16% 的错误率赢得比赛,大幅超越其他参赛者。到 2015 年,ResNet 架构的错误率降至 3.6%,超过了人类在 ImageNet 上的平均表现(5%)。
2. 深度学习的定义与理解难度
深度学习的定义常常令人困惑。一种定义是,深度学习是
超级会员免费看
订阅专栏 解锁全文
1269

被折叠的 条评论
为什么被折叠?



