神经网络和深度学习课程(网易MOOC) - Week 1 深度学习概论

本课程由吴恩达教授引领,介绍神经网络与深度学习的基础概念。重点讲解了ReLU修正线性单元及其在不同应用场景下的作用,如房价预测、图像处理等,并对比了Sigmod函数与ReLU函数的特点。

神经网络和深度学习课程

简介

  • 来自吴恩达教授引领的deeplearning.ai的在线课程。
  • 该笔记为学习笔记。

Week 1 深度学习概论

ReLU 修正线性单元

  • 英文全称:rectified linear unit
  • “修正”:
    • 取值不小于0

房价预测

  • 模型:
    • 输入:
      • 房间数量
      • 邮政编码
      • 地区的富裕程度
      • 房子大小
    • 输出:
      • 房价预测值
  • 给到足够的输入和输出数量的训练集,神经网络将会在监督学习下得到较准确的输入到输出的映射关系。

监督学习的几个应用

  • 针对性投放的广告
    • 对应stable NN
  • 图像处理
    • 对应CNN(卷积神经网络)
  • 音频处理
    • 对应RNN(循环神经网络)
  • 机器翻译
    • 对应复杂的RNN
  • 无人驾驶
    • 混合的神经网络结构
    • 原因:
      • 图像处理应用CNN架构,但是雷达信息则需要应用其他架构。

结构数据与非结构数据

结构数据
  • 主要因子法(类似)
非结构数据
  • 图像、音频、待翻译的文本
  • 特征为像素等

获得较好的训练效果的两种方式

  • 输入更多的数据
  • 训练更大的神经网络模型

Sigmod函数和ReLU函数的异同

Sigmod函数
  • 梯度趋于0
  • 使用梯度下降法时,由于梯度接近于0,所以参数变化会很慢

使用ReLU

  • 梯度不趋于0
  • 可以使梯度下降法运行更快
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值