datawhale吃瓜教程Task02,学习笔记

线性模型

线性模型是一个比较基础的机器学习模型,比较简单比较好理解。

线性回归

以为机器学习是通过算法也就是数学来探究隐藏在数据集中的规律,所以需要将数据集的属性映射成数据进行运算。比如区分好瓜和坏瓜可以用01来表示、甜度就用{0.1,0.2,0.3}之类的来代替。
“min”和“arg min”的区别在于,前者输出目标函数的最小值,
而后者输出使得目标函数达到最小值时的参数取值。
剩下一大堆的数学公式推导就不再重复书写,主要讲解一下对于方法的理解。

梯队下降法

简单来说就是不停的寻找,使整个函数结果最贴近实际数据集的参数,通过不停的迭代。以寻找到能够使模型与实际数据之间差异最小的参数。

牛顿法

也是梯度下降的一种,跟梯度下降的方法基本一致,一样是通过不断的迭代来寻找最优解。但是它的计算量太大,所以在此基础上有了拟牛顿法,减少了计算量。梯度下降法的通病容易陷入局部最优解的问题中,无法的到全局最优解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值