最小二乘、极大似然估计、梯度下降法

本文解析了机器学习中的几个核心概念:最小二乘法、极大似然估计与梯度下降法。介绍了这些方法在构建机器学习模型中的角色,特别是梯度下降法作为优化算法的应用,及其为何适用于logistic回归。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最小二乘、极大似然估计、梯度下降法,是机器学习中常出现的名词。

最小二乘和极大似然是目标函数,梯度下降是优化算法。

机器学习的基本框架基本是模型、目标和算法。

对于一个数据集,根据数据的特点和目的来选择相应的模型。

选择了模型后,为了拟合或分类数据,所以要构造一个目标函数cost function。

构造cost function后,有一部分目标函数,可以直接通过求导求解。

而大部分问题,尤其是logistic regression中。不能直接求导而得,所以需要一种优化算法求解。

而梯度下降法,就是一种求解目标函数的最优化算法。

为什么logistic回归的优化算法为什么用梯度下降而不用最小二乘法(姑且这么叫吧),答案是最小二乘法只能解决线性最小二乘问题,而logistic回归的损失函数不是线性最小二乘问题。(注意最小二乘和最小二乘法的区别)

学习自:https://www.zhihu.com/question/24900876

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值