深度学习的发展历程总结

一张图总结深度学习的前世今生

资料来源百度大脑(ID:baidubrain

  

  另外解释一下为什么 ImageNet(斯坦福教授李飞飞创立) 出现之前互联网上大量的开放数据不能被应用于深度学习?这也是目前深度学习面临的局限,大部分深度学习创造的价值仍然来自于监督学习技术。监督学习技术需要基于系统曾经接受过的其他实例输入,来学习对东西进行分类或对结果进行预测。

  例如给你一张图片,请你把鸟从图片里找出来。或者给你一封邮件,请你判断它是不是垃圾邮件。在监督学习的过程中,深度神经网络先前接受的这些输入信息需要有一个标记信息,它相当于我们做训练题时的参考答案,深度神经网络把自己的分析结果和它进行对比,从而优化分析过程和纠正错误。如果输入的信息中没有关于实际上图片里有没有鸟的标记,或者关于这封邮件实际上是不是垃圾邮件的标记,它就无从学习。这就像我们做完练习题却并不知道自己答得对不对,这对于我们下一次碰到类似的题目大概毫无助益。因此,ImageNet 这样「有参考答案的习题」就显得十分关键。
  当然我们还知道另一种深度学习技术:无监督学习。2012 年 6 月,谷歌推出的「猫实验」项目就是对无监督学习的一次探索。在「猫实验」中,谷歌大脑开发的一个大规模神经网络凭借 1000 万张来自 YouTube 的未标记图片学会了分辨猫。吴恩达当时正是谷歌大脑的负责人,他当时发现经过无监督学习的神经网络对人脸也有辨识,但也有一些神经网络辨识出来的特征他们没能找到对应的词汇,无监督学习方面的算法在很大程度上仍然处于摇篮期。

### 深度学习的技术发展历程与关键事件时间线 #### 早期探索阶段(20世纪初至2000年前) 在2000年之前,人工智能的研究主要集中在符号主义上。这一时期的研究重点在于逻辑推理和基于规则的系统设计,而非数据驱动的方法[^3]。 #### 连接主义兴起(2000年至2012年) 进入2000年后,连接主义逐渐成为主流研究方向之一。研究人员开始关注如何利用人工神经网络来模拟大脑的工作机制,并尝试解决复杂的模式识别问题。然而,在此期间,由于计算能力不足以及缺乏大规模标注数据集的支持,深度学习尚未展现出其全部潜力。 #### 像识别的重大突破——AlexNet(2012年) 2012年十月十三日,当ImageNet竞赛结果公布后,整个学术界为之震动。由Hinton团队提出的AlexNet模型在这次比赛中取得了压倒性的胜利,标志着神经网络技术在像分类任务上的巨大进步。这次成功不仅证明了深层架构的有效性,还推动了GPU加速训练方法的应用普及,从而开启了现代深度学习的新纪元[^1]。 #### 强化学习与深度学习融合里程碑——DQN(2013年底) 紧接着,在2013年12月19日,Google DeepMind发布了一篇具有划时代意义的文章《Playing Atari with Deep Reinforcement Learning》,其中介绍了Deep Q-Networks (DQN) 的概念。该算法首次有效地结合了深度学习和强化学习两种强大工具,使得机器能够在多个经典的Atari视频游戏中达到甚至超过人类玩家水平。这项成就进一步扩大了深度学习应用范围,特别是在自主决策制定方面显示出非凡的能力[^2]。 #### 架构深化扩展期(2015年起) 随着研究不断深入和技术积累增加,人们发现单纯堆叠更多层并不能持续提高性能,反而可能带来梯度消失等问题。针对这些问题,He等人于2015年提出了残差网络(ResNet),它引入跳跃连接解决了非常深网络难以优化难题,允许构建上百乃至上千层复杂模型而不会显著降低收敛速度或最终效果质量。这一步骤极大地促进了计算机视觉等相关领域的发展进程。 #### 新范式涌现——Vision Transformer(2020年至今) 近年来,Transformer架构最初应用于自然语言处理(NLP) 领域并取得卓越成果之后,也被移植到了像分析场景下形成了Vision Transformers(ViT) 。ViT采用自注意力机制代替传统卷积操作作为特征提取核心组件,为未来可能出现更加灵活高效的设计提供了新思路。至此,神经网络大致可以分为两类主导结构:一类是以LSTM为代表的循环结构;另一类则是以CNN为主的顺序结构。 ```python # 示例代码展示了一个简单的多层感知机MLP实现过程 import torch.nn as nn class SimpleMLP(nn.Module): def __init__(self, input_size=784, hidden_size=128, num_classes=10): super(SimpleMLP, self).__init__() self.fc1 = nn.Linear(input_size, hidden_size) self.relu = nn.ReLU() self.fc2 = nn.Linear(hidden_size, num_classes) def forward(self, x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) return out ``` 以上便是关于深度学习历史沿革及其重要节点概述的内容总结。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值