深度学习
文章平均质量分 94
观海胸襟阔
桂林电子科技大学本科毕业后从事嵌入式软件开发工作,拥有五年一线开发经验。目前在广州大学攻读研究生学位,专注于利用人工智能方法解决区块链理论与技术的问题。
秉承好记性不如烂笔头的理念,对学习过程中解决疑难问题的心得体会和避坑经验进行记录和反思。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【深度学习】从一个实例演示Momentum方法对随机梯度下降SGD的“之”字震荡现象减缓效果:《深度学习入门基于Python的理论与实现》中平方和函数的Momentum方法梯度下降过程分析
《深度学习入门基于Python的理论与实现》中对$f(x, y) = \frac{1}{20}x^2 + y^2$这一损失函数进行Momentum方法的梯度下降的原理进行了理论说明,并说明会减缓SGD的“之”字震荡现象。本文将对该问题进行验证。原创 2024-11-23 23:08:09 · 994 阅读 · 0 评论 -
【深度学习】从一个实例演示随机梯度下降SGD的“之”字震荡现象:《深度学习入门基于Python的理论与实现》中平方和函数的梯度下降过程分析
《深度学习入门基于Python的理论与实现》中对$f(x, y) = \frac{1}{20}x^2 + y^2$这一损失函数进行梯度下降的推理过程,并说明会出现“之”字震荡现象。本文将对该问题进行验证。原创 2024-11-14 18:49:32 · 1223 阅读 · 0 评论 -
【深度学习】从公式推导来深入理解误差反向传播算法4:《深度学习入门基于Python的理论与实现》中实现的2层全连接神经网络的two_layer_net类的gradient函数分析
《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对对隐藏层(第1层)神经元的输入值的梯度表达式。原创 2024-11-05 16:06:40 · 433 阅读 · 0 评论 -
【深度学习】从公式推导来深入理解误差反向传播算法3:《深度学习入门基于Python的理论与实现》中实现的2层全连接神经网络的two_layer_net类的gradient函数分析
《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对隐藏层(第1层)神经元的输出值的梯度表达式。原创 2024-11-05 15:34:56 · 477 阅读 · 0 评论 -
【深度学习】从公式推导来深入理解误差反向传播算法2:《深度学习入门基于Python的理论与实现》中实现的2层全连接神经网络的two_layer_net类的gradient函数分析
《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对第2层权重参数的梯度表达式。原创 2024-11-04 23:39:50 · 771 阅读 · 0 评论 -
【深度学习】从公式推导来深入理解误差反向传播算法1:《深度学习入门基于Python的理论与实现》中实现的2层全连接神经网络的two_layer_net类的gradient函数分析
《深度学习入门基于Python的理论与实现》中实现了2层全连接神经网络的代码对MNIST数据集的28x28像素0-9手写数字灰度图像进行分类,本文将重点对代码中的two_layer_net类的gradient函数中的误差反向传播的代码进行公式推导验证。验证小批量数据的交叉熵损失函数对输出层线性输入的梯度表达式。原创 2024-11-04 22:47:28 · 1085 阅读 · 0 评论
分享