深度学习_随记001

文章目录

    • OUC深度学习课程01周要点阅读笔记
      • 1.罗森布拉特的单层感知器:
      • 2.BP算法:
      • 3.CNN:
      • 4.DL盛世:
      • 5.ReLU激活函数
      • 6.下次学习预告(学习完成后会在相应知识点附blog链接)
        • task1:自己手搓一个BP神经网络。
        • task2:SVM(支持向量机)。
        • task3:Fisher Vector(费雪向量)。
        • task4:‘适度复杂’且‘工程上高效’的激活函数。
        • task5:万能逼近定理。
        • task6:ReLU详解与拓展。

OUC深度学习课程01周要点阅读笔记

从宏观的角度上纵横了一遍神经网络的发展历程:

1.罗森布拉特的单层感知器:

稍加修改就能来到现代神经网络的起点。

2.BP算法:

反向传播算法,BP算法是神经网络的“学习引擎”——它通过反向传递误差,告诉每一个权重“该怎么改”,从而让网络越学越准,当然也存在梯度消失和梯度爆炸等问题。
task:可以尝试自己手搓一个BP神经网络。

3.CNN:

卷积神经网络,之后应该会有相应的实验任务,也可以看一下介绍中提到的另一个算法SVM(支持向量机)。

4.DL盛世:

这里的知识点很多,我概述一下:

  • Fisher Vector(费雪向量):用于图像表示(image representation)特征编码(feature encoding) ,是Bag of Visual Words(BoVW,视觉词袋) 模型 的一种高级改进版本。
  • 2019年3月,ACM 宣布,有“深度学习三巨头”之称的 Yoshua Bengio、Yann LeCun、Geoffrey Hinton共同获得了2018年度的图灵奖,这是图灵奖1966年建立以来少有的一年颁奖给三位获奖者。
    这里我们了解一下三人的学术贡献,即为何他们三人在这一年同时获得图灵奖:
  1. 2019 ACM 颁奖词:

“For conceptual and engineering breakthroughs that have made deep neural networks a critical component of computing.”
(“因为他们在线性神经网络方面的概念和工程突破,使深度神经网络成为计算的关键组成部分。”)

简单来说是这样的:他们让神经网络从理论走向现实。

2. 三人的具体学术贡献(分工与重点)
学者 核心贡献 关键技术 关键记忆点
Geoffrey Hinton(杰弗里·辛顿) 深度网络训练方法 DBN、预训练、BP 推广 深度学习之父
Yoshua Bengio(约书亚·本吉奥) 序列建模与语言模型 神经语言模型、注意力 序列建模与生成模型
Yann LeCun(杨立昆) 卷积神经网络(CNN) LeNet、图像识别 卷积神经网络之父

5.ReLU激活函数

ReLU 激活函数(Rectified Linear Unit,修正线性单元)是深度学习中最常用的一种非线性激活函数。其实他非常简单,从其数学形式即可看出:
ReLU ( x ) = max ⁡ ( 0 , x ) \text{ReLU}(x) = \max(0, x)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值