吴恩达《机器学习》学习笔记(三)

本文围绕深层神经网络展开,介绍了其概述,包括层数计算;阐述前向传播和反向传播公式,强调核对矩阵维数的重要性;以人脸图像和语音识别为例说明深层表示的作用;还提及搭建神经网络块、参数与超参数,最后指出深度学习和大脑关联性是噱头。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

深层神经网络

深层神经网络概述

前向传播和反向传播

核对矩阵的维数

为什么使用深层表示?

搭建神经网络块

参数 VS 超参数(Parameters vs Hyperparameters)

深度学习和大脑的关联性


深层神经网络

深层神经网络概述

计算算神经网络的层数时,不算输入层,我们只算隐藏层和输出层。

前向传播和反向传播

前向传播可以归纳为多次迭代zl=wlal-1+bl, al=g[l]z[l]  

核对矩阵的维数

在做深度神经网络的反向传播时,一定要确认所有的矩阵维数是前后一致的。

为什么使用深层表示?

       以人脸图像识别为例子,多层神经网络结构可以看成检测器,前面的浅层神经元相当于提取多个特征,这时是希望能将人脸的特征分得越多越好,后面的层级是将前面提取的小特征进行组合,去监测一些人可以去理解的特征部分—比如人的眼睛、鼻子等等。

       这种从简单到复杂的金字塔状表示方法或者组成方法,也可以应用在图像或者人脸识别以外的其他数据上。比如当你想要建一个语音识别系统的时候,需要解决的就是如何可视化语音,比如你输入一个音频片段,那么神经网络的第一层可能就会去先开始试着探测比较低层次的音频波形的一些特征,比如音调是变高了还是低了,分辨白噪音,咝咝咝的声音,或者音调,可以选择这些相对程度比较低的波形特征,然后把这些波形组合在一起就能去探测声音的基本单元。

搭建神经网络块

参数 VS 超参数(Parameters vs Hyperparameters)

超参数:算法中的 learning rate 𝑎(学习率)、iterations(梯度下降法循环的数量)、𝐿(隐藏层数目)、𝑛[𝑙](隐藏层单元数目)、choice of activation function(激活函数的选择)

超参数的设置:调参、炼丹,各算法工程师的独家秘笈

深度学习和大脑的关联性

    噱头,图一乐

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦想的小鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值