- 博客(4)
- 问答 (1)
- 收藏
- 关注
原创 循环神经网络(二) - LSTM
本文通过烹饪类比解释了雅克比矩阵的概念,并详细阐述了LSTM的工作原理。首先以面粉和糖制作饼干为例,说明雅克比矩阵如何描述输入变量微小变化对输出的影响。接着通过阅读侦探小说的生动比喻,阐释了LSTM的三个门控机制(输入门、遗忘门、输出门)如何协同工作来管理长期记忆。然后以"抗战胜利80周年..."句子为例,详细演示了LSTM前向传播的计算过程,包括权重初始化、门控计算和状态更新。最后给出了PyTorch实现LSTM的代码示例,并指出LSTM的反向传播过程将在后续文章中讲解。全文通过生活化
2025-09-04 17:16:52
911
1
原创 循环神经网络(一) - RNN是如何学习的?
摘要:本文以"我国自主研制的C919大型客机首飞成功"为例,详细演示了RNN模型的学习过程。首先对文本进行分词预处理,构建11个token的词表。然后定义词向量维度为4,设置RNN网络参数(包括权重矩阵和偏置项),并通过具体数值展示前两个时间步的计算过程:输入"我"时得到隐状态h1≈[0.4057,0.7351],预测输出y1的概率分布;输入"国"时基于h1计算新的隐状态。整个过程完整展示了RNN如何通过时间步展开处理序列数据,并计算每一步的预测损
2025-09-02 15:20:57
1571
2
原创 神经网络(二) --- 前向传播
本文概述了神经网络前向传播过程:数据输入,通过输入层至隐藏层的权重与偏置参数,再经sigmoid激活函数处理,得到隐藏层输出,并作为下一层的输入。接着,隐藏层输出通过至输出层的权重与偏置参数,再经sigmoid激活函数,最终输出结果。详细步骤与计算,请参阅本文。
2024-04-08 21:52:12
2408
1
Recurrent Neural Networks: A Comprehensive Review of Architectu
2025-09-03
Java int float double 他们的运算原理是什么
2021-05-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅