课程笔记——Review: Basic Structures for Deep Learning

本文深入解析了神经网络中的全连接层概念及其标记方法,并详细阐述了循环神经网络的两种主流结构——LSTM和GRU的工作原理,对比了它们的优缺点,帮助读者从理论上掌握神经网络的关键组成部分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.Fully Connected Layer

标记方法

  • aila_i^lail:第lll层的第iii个神经元,将同一层的aila_i^lail串在一起形成的向量表示为ala^lal
    在这里插入图片描述
  • WijlW_{ij}^lWijl:即l-1层和l层相连的权重,其中i表示l层连接的神经元,其中j表示l-1层连接的神经元
    在这里插入图片描述
  • zilz_i^lzil:第lll层的第iii个神经元的激活函数的输入
    在这里插入图片描述
    在这里插入图片描述

2.Recurrent Structure(同样结构反复使用)

LSTM结构
在这里插入图片描述
GRU(Gate Recurrent Unit):与LSTM相比,该结构用的三个矩阵(LSTM用四个),参数少些 不容易过拟合

(1)将ht−1h^{t-1}ht1xtx^txt并在一起,乘矩阵(蓝色粗箭头表示)再通过激活函数得到r(reset−gate)r(reset-gate)r(resetgate)z(upset−gate)z(upset-gate)z(upsetgate)
(2)将ht−1h^{t-1}ht1rrr进行元素相乘得到新矩阵,将该矩阵和xtx^txt并在一起,乘矩阵(黄色粗箭头表示)再通过激活函数得到h′h'h
(3)将ht−1h^{t-1}ht1zzz进行元素相乘,将h′h'h1−z1-z1z进行元素相乘,再相加得到hth^tht
(4)hth^tht乘另一个矩阵得到yty^tyt
在这里插入图片描述
Stack RNN
注:push即将该信息放入现在输入的最前方;pop即将最上方的值丢掉;nothing即什么都没有做
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值