- 博客(7)
- 收藏
- 关注
原创 基于吴恩达教授的机器学习笔记(持续更新中)
由亚瑟·塞缪尔定义的机器学习:为使计算机无需明确编程即可学习的研究领域。通过其设计的跳棋程序,即使计算机进行数万次跳棋对弈,获得胜利和失败的经验,最终成为比塞缪尔更好的跳棋玩家。监督学习(supervised learning)和无监督学习(unsupervised learning)以及强化学习(reinforcement learning)
2025-04-21 23:14:33
2485
8
原创 第七章 训练神经网络
在数学计算中,上图的x1的数值完全等于x2的数值,但是在计算机中却是不同的,不一样是因为计算机中的数值是使用二进制表示的,对于0.00001或者0.00002不能用二进制完全表示出来,只能无限接近,但是每个数据类型都有有限的长度,所以对于不能表示的小数总会舍去一部分,x1做了一次取舍,x2做了两次取舍再相减,误差进行叠加导致更大的误差产生。从更新公式就可以看出,Adam优化算法完全是上述两者的结合,吸收了两者算法的优点,既能自适应选择最优学习率,也可以保证下降平滑,抑制震荡的产生,有较高的稳定性。
2025-10-13 20:07:39
743
原创 第五章 神经网络和深度学习(上)
神经网络是一种由大量人工神经元(节点)构成的模型,模拟人脑神经元的连接方式,通过层与层之间的权重传递和非线性变换,
2025-05-28 16:36:08
1280
原创 第四章 逻辑回归
首先我们通过几个具体示例进行展示: 图中的问题和之前的线性回归的问题的主要差别在,线性回归问题中我们可以得到无穷多的输出结果,而逻辑回归中通常只会得到两个结果(即对多个输出进行统一的分类)。 当我们用线性回归算法来对这种分类问题进行拟合时,就会产生图中的问题,如果数据都按照某个值(决策边界)进行平均分布,我们还可以通过人为选取比较好的分界线(图中的蓝色直线),但是如果出现偏差较大的值(图中最右边的极端值)就会对拟合直线产生严重影响,使得我们的分界取值无法符合当前的训练示例。所以对
2025-05-15 22:19:10
1478
原创 第三章 多变量线性回归
上述例子体现h了如果一个特征变量变化范围很大,而另一个很小,就极有可能造成代价函数等高线图成为细长的椭圆形,因为变化小的特征变量需要较小的参量,反之亦然,这样才能符合最终的目标值,这也会造成梯度下降法在取得最小值时来回弹跳无法取得。例如,在这个例子中,对于房屋来说,长宽时基本参数,而它们的乘积——房屋面积也是比较重要的参数,当我们在拟合过程中,就可以添加新的特征变量——房屋面积,来更好的进行数据拟合。在回归过程中,除了初始的特征变量,我们也可以按照需求自己添加新的特征变量(要跟原来的特征变量有一定的联系)。
2025-04-28 22:25:17
1379
原创 第二章 单变量线性回归
用来衡量模型在所有训练数据上的表现的函数。它的目标是量化模型的预测与实际标签之间的差距,从而为优化算法提供反馈,帮助模型调整参数以提高预测准确性。
2025-04-27 16:29:20
1213
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅