机器学习-感知机-神经网络-激活函数-正反向传播-梯度消失-dropout

感知机

感知机是神经网络的起点
在这里插入图片描述
在这里插入图片描述

工作流程

在感知机模型中,step function起到了一个 分类决策 的作用。

在这里插入图片描述
学习调整权重
在这里插入图片描述

神经网络

在这里插入图片描述

区别

无需自己选择特征,传统感知机人工手动提取选择特征,深度学习特征提取的过程是自动完成的。只需要输入各种数据即可
在这里插入图片描述
提取特征可以通过最后输出层的前一层隐藏层的输出特征可以看出来,与一开始的输入层的特征不一样
在这里插入图片描述
可以用作多分类
在这里插入图片描述
或者目标检测
在这里插入图片描述

各种各样的神经网络

DNN 深度神经网络(ANN 人工神经网络 /MLP 多层感知机)、CNN、RNN
在这里插入图片描述
在这里插入图片描述

激活函数

在这里插入图片描述
激活函数是一种非线性函数,它可以把输入的数据映射到一个新的输出值,这个输出值可以在下一层被用作输入。
在这里插入图片描述

在这里插入图片描述

激活函数类型

在这里插入图片描述

Sigmoid 函数

在这里插入图片描述
在这里插入图片描述

ReLU函数

在这里插入图片描述

Leaky ReLU 函数

在这里插入图片描述

Tanh 函数

虽然两者都是非线性的,但 Tanh 函数在输入接近零时提供了更强烈的非线性映射,这是因为其曲线在这个区域内更为陡峭。这使得它能够在某些任务中捕捉到更复杂的模式。
在这里插入图片描述

正向传播

在这里插入图片描述
在这里插入图片描述

反向传播

在这里插入图片描述
负责多少就是对损失值影响多少,就是梯度
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

梯度消失(gradient vanish)

在这里插入图片描述
在这里插入图片描述

如何解决

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Sigmoid函数导函数区间在0到0.25之间,Tanh函数导函数区间在0到1之间,它们输出的数值一直很小。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Dropout

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
消除特征间的依赖关系:不依赖其他特征通过一部分学习的特征就能判断

使用

深度学习框架中会封装有 Dropout 层,这样需要将哪一层输出随机的丢弃一些,那么就在哪一层后面跟 Dropout 层即可。

自行实现如下

p = 0.5  # 激活的概率。p越高,Dropout 越少。
def train_step(X):
    """ X 是输入数据 """
    
    # 第 1 层的前向传播
    H1 = np.maximum(0, np.dot(W1, X) + b1)  # ReLU 激活
    U1 = np.random.rand(*H1.shape) < p  # 随机生成 Dropout mask
    H1 *= U1  # 应用 Dropout,丢弃一些神经元
    
    # 第 2 层的前向传播
    H2 = np.maximum(0, np.dot(W2, H1) + b2)  # ReLU 激活
    U2 = np.random.rand(*H2.shape) < p  # 随机生成 Dropout mask
    H2 *= U2  # 应用 Dropout,丢弃一些神经元
    
    # 输出层
    out = np.dot(W3, H2) + b3  # 不对输出层应用 Dropout
    
    return out

在这里插入图片描述
在这里插入图片描述

PyTorch实战神经网络算法(手写MNIST数字识别)

https://pytorch.org/

inputs.view(-1, 28*28)

view

在这里插入图片描述

softmax和log-softmax

在这里插入图片描述

cross-entropy loss

在这里插入图片描述

nll_loss

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

batch size底层运算机制

https://blog.youkuaiyun.com/weixin_44986037/article/details/144216069

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

看星猩的柴狗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值