参考链接:https://datawhalechina.github.io/leeml-notes
文章目录
一、深度学习的发展趋势
回顾一下深度学习(deep learning)的历史:
- 1958: Perceptron (linear model)
- 1969: Perceptron has limitation
- 1980s: Multi-layer perceptron
- Do not have significant difference from DNN today
- 1986: Backpropagation
- Usually more than 3 hidden layers is not helpful
- 1989: 1 hidden layer is “good enough”, why deep?
- 2006: RBM initialization (breakthrough)
- 2009: GPU
- 2011: Start to be popular in speech recognition
- 2012: win ILSVRC image competition
感知机(Perceptron)非常像我们的逻辑回归(Logistics Regression)只不过是没有sigmoid激活函数。09年的GPU的发展是很关键的,使用GPU矩阵运算节省了很多的时间。
二、深度学习的三个步骤

- Step1:神经网络(Neural network)
- Step2:模型评估(Goodness of function)

本文概述了深度学习的发展历程,从早期的Perceptron到现代深度神经网络,强调了GPU的里程碑作用。介绍了深度学习的三个核心步骤:构建神经网络、模型评估用交叉熵、通过反向传播选择最优参数。
最低0.47元/天 解锁文章
389

被折叠的 条评论
为什么被折叠?



