- 博客(5)
- 收藏
- 关注
原创 【Task04:如何加快梯度下降速率】
【Task04:如何加快梯度下降速率】 1.1调整学习速率learning rate 不能过大或过小,一般需要合适的学习速率 自动调整学习速率,设置一个学习速率的函数,例如 Adagrad自动调整方法,使得不同参数的学习速率都不同。 推导过程如下 因此学习速率实际变成了 找最佳步长(也就是学习速率和梯度相乘的值):一次微分的绝对值/二次微分值( ,二次微分用一次微分表示,可以减少计算量) 1.2 随机梯度下降(使得数据训练更快) 算某一个例子的loss值,不算所有例子的loss值 1.3 featu
2022-01-14 20:26:51
1477
原创 【Task03:误差从哪来】
【Task03:误差从哪来】 err来源于bias,另一种来源于variance 误差来源,第一个是你找出的最好的模型的平均值离理想最优模型之间的距离,这个称为bias,另一个则是你找的每一个最好的模型离平均值之间的距离,这个称为variance。主要是这两个方面。所以bias和variance两两组合,会出现低bias低variance,低bias高variance,高bias低variance以及高bias高variance。 但为什么会出现很多个f*,可以平行做n个平行实验,每一个实验都找一个f*
2022-01-14 20:15:56
1711
原创 【无标题】
李宏毅机器学习课程笔记 【Task01:机器学习介绍】 kaggle应用(http://www.kaggle.com/),作业 一、应用场景: 1.1语音识别 1.2图像识别 二、功能 2.1回归:输出一个数值 2.2分类:准备好类别(准备的选项不止一类),输出为类别的一类 类似于go围棋评估下一步放在哪个位置(每个没有落子的位置都是选项) 2.3结构学习(structure learning):输出有结构化的对象(创造文章、图片等) 三、机器如何找function(训练数据) 3.1第一步:先猜测
2022-01-10 22:42:59
269
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅