
深度学习的数学
文章平均质量分 90
老板多放点香菜
这个作者很懒,什么都没留下…
展开
-
DAY15 神经网络的参数和变量
从数学上看,神经网络是一种用于数据分析的模型,这个模型是由权重和偏置确定的。像权重和偏置这种确定数学模型的常数称为模型的参数。除了参数以外,数据分析的模型还需要值根据数据而变化的变量,但是参数和变量都用拉丁字母或希腊字母标记,这会引起混乱。而区分用于代入数据值的变量和用于确定模型的参数,对于逻辑的理解是不可或缺的。原创 2025-01-05 16:59:16 · 1081 阅读 · 0 评论 -
Day14 最优化问题和回归分析
回归分析是一种预测性的建模技术,主要用于研究因变量(目标)和一个或多个自变量(预测器)之间的关系,其目的是通过建立模型来预测因变量的值。原创 2024-12-29 10:38:29 · 1101 阅读 · 0 评论 -
Day13 用Excel表体验梯度下降法
详见本Day文章顶部附带资源里里的Excel表《梯度下降法》,可以对照附表里的单元格公式进行理解,可以多尝试几次不同的学习率η来感受下一,只需要更改学习率η单元格数值,按回车键后即可观察函数值变化。原创 2024-12-22 22:27:11 · 588 阅读 · 0 评论 -
Day12 梯度下降法的含义与公式
梯度下降法(Gradient Descent)是一种广泛应用于机器学习和深度学习中的优化算法,主要用于求解最小化目标函数的问题。本Day在回顾前期基础上,形象具象抽象的讲解了梯度下降算法。原创 2024-12-21 23:28:22 · 905 阅读 · 0 评论 -
Day11 梯度下降法的基础:多变量函数的近似公式
解释多变量函数的近似公式,为理解梯度下降法打下基础原创 2024-12-18 23:38:35 · 673 阅读 · 0 评论 -
Day10 误差反向传播法必需的链式法则
在神经网络的训练过程中,误差反向传播法是一种非常重要的算法。它通过计算损失函数对每个参数的梯度,从而更新参数以最小化损失函数。而在这个过程中,链式法则起到了至关重要的作用。本Day将深入探讨神经网络和复合函数的关系、单变量与多变量函数的链式法则。原创 2024-12-17 22:45:22 · 1061 阅读 · 0 评论 -
Day9 神经网络的偏导数基础
分享解释学习神经网络需要的偏导数基础原创 2024-12-16 22:59:58 · 1423 阅读 · 0 评论 -
Day8 神经网络中的导数基础
神经网络中的导数基础原创 2024-12-15 23:45:28 · 786 阅读 · 0 评论 -
Day7 神经网络的矩阵基础
神经网络的矩阵基础原创 2024-12-13 22:48:57 · 1206 阅读 · 0 评论 -
Day6 神经网络的向量基础
总结学习神经网络需要掌握的向量基础知识原创 2024-12-12 23:38:35 · 732 阅读 · 0 评论 -
Day5 神经网络的数列和递推关系式基础
深度学习神经网络中常用到的数列和递推关系式基础。附常见的符号解释原创 2024-12-11 21:43:59 · 543 阅读 · 0 评论 -
Day4 神经网络的函数基础
深度学习神经网络需要掌握的函数基础原创 2024-12-10 22:00:13 · 940 阅读 · 0 评论 -
Day3 用恶魔来讲解神经网络
Day2中概述了神经网络的各层(输入层、隐藏层、输出层),但没有具体介绍其中最难的。这是因为隐藏层肩负着**特征提取(feature extraction)**的重要职责,需要很长的篇幅来介绍。Day3中以“恶魔组织”为例,从隐藏层切入,解释整个神经网络的“工作”机制。原创 2024-12-09 22:08:30 · 733 阅读 · 0 评论 -
Day2 神经网络中的 激活函数 和 网络层次
Day2 神经网络中的 激活函数 和 各层网络神经元工作的一般化简化神经元图形激活函数根据点火与否,生物学上的神经元的输出 y 分别取值 1 和 0回顾 Day1 中利用单位阶跃函数表示的点火公式:u(z)={0(z<0)1(z≥0) u(z) = \begin{cases} 0 & (z < 0) \\ 1 & (z \geq 0) \end{cases} u(z)={01(z<0)(z≥0)y=u(w1x1+w2x2+w3x3−原创 2024-12-08 11:58:54 · 749 阅读 · 0 评论 -
Day1 从生物学到数学 解释 神经网络中的神经元
5张图解释 神经网络中神经元工作的数学表示原创 2024-12-07 14:00:44 · 668 阅读 · 0 评论