- 博客(14)
- 收藏
- 关注
原创 鱼书(4)-第6章---与学习相关的技巧
本章主题:寻找最优权重参数的最优化方法、权重参数的初始值、超参数的设定方法等。神经网络的学习的目的:使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程被称为最优化(optimization)。为了找到最优参数,前面我们介绍了随机梯度下降法,简称SGD。 即将参数的梯度(导数)作为了线索。使用参数的梯度,沿梯度方向更新参数,并重复这个步骤多次,从 而逐渐靠近最优参数本节解释SGE的缺点,并接受SGD以外的其他最优化方法。有一个性情古怪的探险家。他在广袤的干旱地带旅行,坚持寻找幽深的山谷
2025-07-30 00:32:12
837
原创 鱼书(3)-第5章---误差反向传播法
复合函数:由多个函数构成的函数。例如,zt2z = t^2zt2txyt = x + ytxy∂z∂x∂x∂z可以用∂z∂t∂t∂z和∂t∂x∂x∂t的乘积表示。∂z∂x∂z∂t∂t∂x∂x∂z∂t∂z∂x∂t通过使用计算图,可以直观地把握计算过程;计算图的节点是由局部计算构成的。局部计算构成全局计算。计算图的正向传播进行一般的计算。
2025-07-28 14:42:18
1109
原创 鱼书(2)-第4章---神经网络的学习
机器学习使用的数据集分为训练数据和测试数据神经网络用训练数据进行学习,测试数据评价学习到的模型的泛化能力神经网络的学习以损失函数为指标,更新权重参数,以使损失函数的值减小。
2025-07-25 23:30:27
660
原创 鱼书(1)---神经网络
按照神经网络的实现惯例,只把权重记为大写字母 W1 ,其他的(偏置或中间结果等)都用小写字母表示。# 初始化神经网络的参数network = {} # 创建一个空字典来存储网络参数[0.2, 0.4, 0.6]]) # 第一层的权重矩阵network['b1'] = np.array([0.1, 0.2, 0.3]) # 第一层的偏置向量[0.3, 0.6]]) # 第二层的权重矩阵network['b2'] = np.array([0.1, 0.2]) # 第二层的偏置向量。
2025-07-24 00:08:45
1121
原创 数学基础(一)-方向导数和梯度
fxyx22y2fxyx22y2在点 ( 1, 1 ) 处的梯度∇f∇f∇f沿方向的u1212u2121方向导数DufDuf。
2025-07-21 01:53:25
1274
原创 常见概念(1)---最大似然估计
求概率的过程:已知模型参数,计算数据发生的可能性。求似然的过程:已知数据发生的情况,取评估不同模型参数的可能性,其中求出特定参数使得数据发生可能性最大的过程,就是求最大似然估计的过程。
2025-07-18 19:27:14
479
原创 卫星隐蔽通信技术
混沌是确定性非线性系统在一定条件下表现出的随机性行为。尽管系统是确定的(由明确的数学方程控制),但输出看起来却像是噪声,具有极强的复杂性和不可预测性。
2025-07-17 18:31:15
1148
原创 Kaggle--机器学习入门
在大多数(但不是全部)应用程序中,模型质量的相关度量是预测准确性。换句话说,模型的预测是否接近实际发生的情况。许多人在测量预测准确性时犯了一个巨大的错误。他们使用训练数据进行预测,并将这些预测与训练数据中的目标值进行比较。首先需要把模型的质量用一种易于理解的方式进行总结。如果你比较 10,000 套房子的预测值和实际房价,你很可能会发现有好有坏的预测结果。逐条查看这 10,000 个预测值和实际值的列表毫无意义。我们需要将其汇总成一个单一的指标。
2025-07-15 23:10:14
904
原创 线性回归及梯度下降算法
为了理解梯度下降,可以想象一下你正站立在山的一点上(上图中的红色起始点),并且希望用最短的时间下山。在梯度下降算法中,要做的就是旋转360度,看看周围,并问自己要在某个方向上,用小碎步尽快下山。在后面我们也会谈到这个方法,可以在不需要多步梯度下降的情况下,解出代价函数的最小值,这中方法称为。红色直线的斜率,正好是下图红色三角形的高度除以这个水平长度,这条线有一个正斜率,也就是说它有正导数,因此,**对于该例子预测的值是价格。接下来,是如何确定参数 θ0 和 θ1,前面一个为截距,后面一个为直线的斜率。
2025-05-31 22:45:16
1055
原创 LSTM学习
(1)横向:上面是长期记忆的传播,下面是短期记忆的传播。三、LSTM基本原理–遗忘门、输入门、输出门。(2)纵向:三个门,即三个基本单元。四、循环神经网络的梯度问题。计算比例公式:即计算ft。五、LSTM解决梯度问题。1.记忆细胞内部流程图。
2024-01-18 23:08:31
855
1
原创 CNN神经网络
2>卷积特征值计算方法:每个区域的输入信息与权值矩阵w对应相乘得到该小区域的特征值,将RGB三通道全部计算后相加再加上bias偏移量后,得到每个区域对应的特征值。<1>卷积层做了什么:将图片分为每个小区域,每个区域得到的特征是不同的,选择一种权值计算方法,计算每个区域的特征值是多少。4.全连接层:对信息的激活映射后进行分类或输出,例如,将10240个特征值转化为预测的5个类别的概率值。④卷积核个数:最终得到的特征图的个数,每个卷积核里面的值都不同。步长越小,细致的提取特征,则提取的特征值就越多越丰富。
2024-01-18 20:04:27
612
1
基于深度学习的动力电池的SOC估计
2024-07-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅