DL总结(二)-----------shallow neural network to deep neural network

本文探讨了逻辑回归作为神经网络的一种特例,并详细解释了如何通过增加隐藏层将其转化为浅层神经网络模型。文章重点讲解了前向传播与反向传播过程,以及如何通过选择不同的激活函数如tanh或ReLU来提升模型训练效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

DL总结(一)—logistic regression as a neural network
在这里插入图片描述
如图所示,图的上面部分其实是一个逻辑回归模型搭建的神经网络,而下面部分在其基础上增加了一个隐藏层,而对于隐藏层的每一个隐藏单位实际上都是一个计算激活函数的过程,相当于在输入层到隐藏层的映射中计算了三次单个神经元模型,在隐藏层到输出层的映射中又经过了一个逻辑回归模型。
如图:
在这里插入图片描述
浅层的神经网络模型与逻辑回归的神经网络搭建基本类似,不过要注意参数W以及b的向量化的维度,而且为提高神经网络的训练精度,还可以选用其他的激活函数,例如tanh函数( e z − e − z e z + e − z \frac{e^{z}-e^{-z}}{e^z+e^{-z}} ez+ezezez)或者RcLU函数,其图像如图:
tanh
RcLU

Forwardpropagation

Backwardpropagation

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值