吴恩达深度学习笔记 课程1 第三周 单层神经网络实现

本文介绍了神经网络中的关键概念,包括双层网络的向量化表示、不同激活函数的应用(sigmoid、tanh和ReLU),以及梯度下降法在优化过程中的作用。特别强调了权重初始化的重要性,指出不能将参数设为0以避免隐藏单元的对称性问题,通常采用小规模随机初始化策略。

一 神经网络的表示

在这里插入图片描述
上述为双层神经网络
第零层 输入特征值
第一层 隐含层
第二层 输出层
在这里插入图片描述
计算m个样本的公式,由于出现显式for循环 需要将其进行向量化。

二 激活函数

在面对二分类问题时候 sigmoid函数作为输出层函数表现很优越,其他情况tanh函数的表现更好,ReLU在计算梯度时表现更好,优于tanh。
在这里插入图片描述
非线性激活函数能够近似的逼近任何函数,神经网络真正的发挥作用。

三 梯度下降法实现

在这里插入图片描述

四 随机初始化权重

参数w不能初始化为0,否则隐藏单元进行同样的计算,存在对称性。隐藏单元失去意义。

W[1]=np.random.randn((2,2))*0.01 权重初始化一般很小。
b[1]=np.zero((2,1))
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值