李宏毅机器学习笔记

这篇笔记记录了学习李宏毅机器学习课程的内容,涉及bias和variance的概念解释,正则化的意义以及Adagrad优化算法,最后讲解了Probabilistic Generative Models的基本思想。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2018.10.09开始看李宏毅的机器学习课,把重要的笔记记下来

  • 各种模型之间的关系

 

10月10日

  • 为什么要使用Regulation

正则项目的:使目标函数尽可能的平滑,尽量使Wi小一点

                      Wi小的比较好(因为输入值有很大变化,对输出的影响相对没有那么大)

                      λ越大,函数越平滑

                      但是λ太大了,就太平滑,不能正确拟合函数了

                      正则项不考虑b, 因为b对函数的平滑程度没有影响

 

10月11日

bias VS variance

bias: 样本点平均离中心远近

variance: 样本点有多散

variance 大overfitting 增加data, 正则化
bias 大underfitting 修正model(增加data没用的)

 

10.12

Adagrad: 考虑前面每一步的梯度,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同

       

 

10 .17

 Probabilistic Generative Model

找出一个分布,最有可能选出目前已有的数据

         

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值