[笔记]Coursera Deep Learning笔记 神经网络一些要点

本文深入探讨了Sigmoid、Tanh、ReLU及其变种LeakyReLU等激活函数的特点与应用,解释了为何非线性激活函数对神经网络至关重要,以及随机初始化参数的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

激活函数

  1. Sigmoid
    不怎么用了.
    a=g(z)=σ(z)=11+e−zg′(z)=a(1−a)a = g(z) = \sigma(z) = \frac{1}{1+e^{-z}} \\ g'(z) = a(1-a)a=g(z)=σ(z)=1+ez1g(z)=a(1a)
    在这里插入图片描述

  2. Tanh
    比Sigmoid好. 因为其值域为(-1, 1), 计算得a的平均值靠近0, 更好的centers the data(不知道怎么翻译比较好), 有利于下一层的计算.
    a=g(z)=tanh(z)=ez−e−zez+e−zg′(z)=1−(tanh(z))2a = g(z) = tanh(z) = \frac{e^{z}-e^{-z}}{e^{z}+e^{-z}} \\ g'(z) = 1 - (tanh(z))^2a=g(z)=tanh(z)=ez+ezezezg(z)=1(tanh(z))2
    在这里插入图片描述

  3. ReLU(Rectified Linear Unit)
    收敛快.
    a=g(z)=max(0,z)g′(z)={0if z&lt;01if z&gt;0undefinedif z=0a = g(z) = max(0, z) \\ g&#x27;(z) = \begin{cases} 0 &amp;\text{if } z&lt;0 \\ 1 &amp;\text{if } z&gt;0 \\ undefined &amp;\text{if } z=0 \end{cases}a=g(z)=max(0,z)g(z)=01undefinedif z<0if z>0if z=0
    在这里插入图片描述

  4. Leaky ReLU
    比ReLU更优, 但不怎么用?
    a=g(z)=max(0.01z,z)g′(z)={0.01if z&lt;01if z&gt;0undefinedif z=0a = g(z) = max(0.01z, z) \\ g&#x27;(z) = \begin{cases} 0.01 &amp;\text{if } z&lt;0 \\ 1 &amp;\text{if } z&gt;0 \\ undefined &amp;\text{if } z=0 \end{cases}a=g(z)=max(0.01z,z)g(z)=0.011undefinedif z<0if z>0if z=0
    在这里插入图片描述

为什么需要一个非线性的激活函数(Non-linear Activation Function)

因为如果是线性的, 即直接令 A=g(Z)=ZA = g(Z) = ZA=g(Z)=Z 那么对于每一层,都有:
(*)a[i]=z[i]=w[i]a[i−1]+b[i] a^{[i]} = z^{[i]} = w^{[i]}a^{[i-1]} + b^{[i]} \tag{*} a[i]=z[i]=w[i]a[i1]+b[i](*)

则对于第 i+1i+1i+1 层, 将 (∗)(*)() 带入:

a[i+1]=z[i+1]=w[i+1]a[i]+b[i+1]=w[i+1](w[i]a[i−1]+b[i]+b[i+1]=(w[i+1]w[i])a[i−1]+(w[i+1]b[i]+b[i+1])=w′a[i−1]+b′ \begin{aligned} a^{[i+1]} &amp; = z^{[i+1]} \\ &amp; = w^{[i+1]}a^{[i]} + b^{[i+1]} \\ &amp; = w^{[i+1]}(w^{[i]}a^{[i-1]} + b^{[i]} + b^{[i+1]} \\ &amp; = (w^{[i+1]}w^{[i]})a^{[i-1]} + (w^{[i+1]}b^{[i]}+b^{[i+1]}) \\ &amp; = w&#x27;a^{[i-1]} + b&#x27; \end{aligned} a[i+1]=z[i+1]=w[i+1]a[i]+b[i+1]=w[i+1](w[i]a[i1]+b[i]+b[i+1]=(w[i+1]w[i])a[i1]+(w[i+1]b[i]+b[i+1])=wa[i1]+b

即最终的模型相当于一个标准的, 没有隐藏层的逻辑回归. 即无论你的模型有多少层,最终效果也相当于只有一层。

如果要用线性激活函数, 一般也只用在回归问题的输出层(预测一些结果为实数的值), 隐藏层还是用 tanh, ReLU 等.

为什么神经网络要随机初始化参数(而逻辑回归不须要)

如果神经网络不随机初始化, 比如 w, b 都初始化为0, 则每次对隐藏层反向传播的时候计算得的导数 dz1[i]dz^{[i]}_1dz1[i] , dz2[i]dz^{[i]}_2dz2[i] , dz3[i]dz^{[i]}_3dz3[i] 等相同, dwdwdw 也是, 每个隐藏层单元都计算着一模一样的式子(不过b不受这种Symmetry Breaking Problem影响, 可以初始化为0).

而对于逻辑回归, 它没有隐藏层, 其导数取决于x, 问题不大.

随机初始化时参数范围可以设置在0~0.01(对于 sigmoid 和 tanh 而言), 如果参数过大(比如w=100) 在 sigmoid 或 tanh 的函数图像上可以看到参数十分靠右,导致导数趋于零, 梯度趋于零, 导致收敛很慢.

向前向后传播

向前传播:

Input: a[l−1]Output: a[l],Cache: z[l]z[l]=W[l]a[l−1]+b[l]Z[l]=W[l]A[l−1]+b[l]a[l]=g[l](z[l])A[l]=g[l](Z[l]) \begin{aligned} &amp; \text{Input: } a^{[l-1]} \\ &amp; \text{Output: } a^{[l]} , \text{Cache: } z^{[l]} \\ &amp; z^{[l]} = W^{[l]}a^{[l-1]} + b^{[l]} &amp;&amp; Z^{[l]} = W^{[l]}A^{[l-1]} + b^{[l]} \\ &amp; a^{[l]} = g^{[l]}(z^{[l]}) &amp;&amp; A^{[l]} = g^{[l]}(Z^{[l]}) \\ \end{aligned} Input: a[l1]Output: a[l],Cache: z[l]z[l]=W[l]a[l1]+b[l]a[l]=g[l](z[l])Z[l]=W[l]A[l1]+b[l]A[l]=g[l](Z[l])

向后传播:

Input: da[l]Output: da[l−1],dW[l],db[l]dz[l]=da[l]∗g[l]′(z[l])dZ[l]=dA[l]∗g[l]′(Z[l])dW[l]=dz[l]a[l−1]dW[l]=1mdZ[l]A[l−1]Tdb[l]=dz[l]db[l]=1mnp.sum(dZ[l],axis=1,keepdims=True)da[l−1]=w[l]Tdz[l]dA[l−1]=W[l]TdZ[l] \begin{aligned} &amp; \text{Input: } da^{[l]} \\ &amp; \text{Output: } da^{[l-1]} , dW^{[l]} , db^{[l]} \\ &amp; dz^{[l]} = da^{[l]}*g^{[l]&#x27;}(z^{[l]}) &amp;&amp; dZ^{[l]} = dA^{[l]}*g^{[l]&#x27;}(Z^{[l]}) \\ &amp; dW^{[l]} = dz^{[l]}a^{[l-1]} &amp;&amp; dW^{[l]} = \frac{1}{m} dZ^{[l]}A^{[l-1]^T} \\ &amp; db^{[l]} = dz^{[l]} &amp;&amp; db^{[l]} = \frac{1}{m} np.sum(dZ^{[l]}, axis=1, keepdims=True) \\ &amp; da^{[l-1]} = w^{[l]^T}dz^{[l]} &amp;&amp; dA^{[l-1]} = W^{[l]^T}dZ^{[l]} \end{aligned} Input: da[l]Output: da[l1],dW[l],db[l]dz[l]=da[l]g[l](z[l])dW[l]=dz[l]a[l1]db[l]=dz[l]da[l1]=w[l]Tdz[l]dZ[l]=dA[l]g[l](Z[l])dW[l]=m1dZ[l]A[l1]Tdb[l]=m1np.sum(dZ[l],axis=1,keepdims=True)dA[l1]=W[l]TdZ[l]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值