李宏毅
Harry-L
做一天会翻身的咸鱼
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
李宏毅《机器学习》笔记-1.Introduction of Machine Learning
1. 什么是机器学习 机器学习就是,针对给出的数据,寻找一个函数,给出合适的输出。例如: 2. 机器学习的步骤 正如将大象放进冰箱一样,机器学习步骤简化下来分三步: 确定一个函数的集合(我们称之为model) 定义评价函数:因为有很多个函数,我们需要定义出用什么方法评价函数的好坏,这也是我们通常所说的 loss function 挑选最好的函数 3. 机器学习的划分 机器学习主要划分为以...原创 2019-05-13 21:52:43 · 278 阅读 · 0 评论 -
李宏毅《机器学习》笔记-2.Regression
1. 什么是Regression(回归) 如果一个任务的输出(output)是一个数值(scalar),那么这种任务就是Regression(回归)。 例如:股票指数预测;无人驾驶中输出方向盘角度;商品推荐中使用者购买商品的可能性等 2. 线性回归案例:宝可梦cp值 根据宝可梦当前cp值以及一些其他指标,预测进化后的cp值 使用机器学习三板斧 Step1. 设计模型(Model) 假设进化后的...原创 2019-05-16 22:27:58 · 380 阅读 · 0 评论 -
李宏毅《机器学习》笔记-3. Where does the error come from?
1. 误差的来源 误差(error)= 偏差(bias) + 方差(variable) 方差(variable):s2=1N∑n(xn−m)2s^{2}=\frac{1}{N} \sum_{n}\left(x^{n}-m\right)^{2}s2=N1∑n(xn−m)2 一般来说,模型越复杂,方差越大 偏差(bias):E[f∗]=f‾E\left[f^{*}\right]=\overli...原创 2019-05-17 20:20:58 · 245 阅读 · 0 评论 -
李宏毅《机器学习》笔记-4. Gradient Descent
关于梯度下降的一下技巧 1. 调整学习率 若学习率太大,可能会错过最小值;若学习率太小,有可能收敛速度太慢。 可变学习率 为了让梯度下降可以收敛到最小值,一般来说学习率要跟随迭代次数变小。一种常见的做法是让 ηt=η/t+1\eta^{t}={\eta} / {\sqrt{t+1}}ηt=η/t+1 Adagrad Adagrad 是一种常用的可变学习率的做法,它还考虑了历史梯度均值。 A...原创 2019-05-17 21:56:45 · 257 阅读 · 0 评论
分享