
神经网络与深度学习
文章平均质量分 90
从零开始,逐步深入,系统介绍神经网络技术与深度学习
FutureNet2016
这个作者很懒,什么都没留下…
展开
-
【第十五章】改进神经网络学习方式-手写数字识别重新编码实现
python编程实现,加入了正则化和权重初始化原创 2024-03-19 16:32:37 · 642 阅读 · 0 评论 -
【第十四章】改进神经网络学习方式-权重初始化
通过合理初始化网络权重,加快训练速度原创 2024-03-19 16:02:48 · 954 阅读 · 0 评论 -
【第十三章】改进神经网络学习方式-其他正则化技术
其他正则化技术,L1正则化,dropout等原创 2024-03-19 15:31:15 · 1033 阅读 · 0 评论 -
【第十二章】改进神经网络学习方式-过拟合与正则化
神经网络正则化方法L2正则化原创 2024-03-19 15:00:48 · 924 阅读 · 0 评论 -
【第十一章】改进神经网络学习方式-Softmax
实际上,将具有对数似然成本的 softmax 输出层视为与具有交叉熵成本的 sigmoid 输出层非常相似是很有用的。在许多问题中,将输出激活 aLj 解释为网络对正确输出为 j 的概率的估计是方便的。将这一点与上一段的观察结合起来,我们可以看到 softmax 层的输出是一组正数,它们总和为 1。因此,如果 aL4 增加,那么其他输出激活必须以相同的总量减少,以确保所有激活的总和保持为 1。在这种情况下,它将估计相应的概率。在下面显示了可调节的滑块,显示了加权输入的可能值,并显示了相应的输出激活的图表。原创 2024-03-19 13:25:16 · 784 阅读 · 0 评论 -
【第十章】改进神经网络学习方式-交叉熵
简单解释交叉熵原创 2024-03-19 12:56:41 · 1089 阅读 · 0 评论 -
【第九章】梯度下降算法实现
梯度算法实现的过程描述原创 2024-03-19 11:22:29 · 830 阅读 · 0 评论 -
【第八章】梯度下降算法理论详解
误差反向传播理论部分原创 2024-03-18 20:03:42 · 753 阅读 · 0 评论 -
【第七章】深度学习思维模式
介绍深度学习的思维模式原创 2024-03-17 07:49:51 · 1073 阅读 · 0 评论 -
【第六章】简单网络实现手写数字分类-编程实现
手写数字分类的代码实现原创 2024-03-16 18:40:22 · 1075 阅读 · 0 评论 -
【第五章】简单网络实现手写数字分类-梯度下降算法
介绍梯度下降算法的原理原创 2024-03-15 21:11:15 · 1456 阅读 · 0 评论 -
【第四章】简单网络实现手写数字分类-网络架构
手写数字辨识的网络架构原创 2024-03-15 16:20:15 · 1039 阅读 · 1 评论 -
【第三章】神经网络的架构-前馈神经网络
介绍前馈神经网络架构原创 2024-03-15 16:03:46 · 708 阅读 · 1 评论 -
【第二章】Sigmoid 神经元
介绍sigmoid,以及和感知机的区别原创 2024-03-15 15:49:18 · 1073 阅读 · 1 评论 -
【第一章】感知机(Perceptrons)
介绍感知机原理和简单应用原创 2024-03-15 15:21:46 · 1206 阅读 · 1 评论 -
【前言】神经网络与深度学习简介
神经网络与深度学习简介原创 2024-03-15 14:21:33 · 1059 阅读 · 2 评论