机器学习中的监督学习:线性回归与分类
1. 线性回归基础
线性回归旨在通过数据拟合一条直线,从而从自变量(X)中提取线性关系。为了便于理解,我们先从只有一个自变量(X)和一个因变量(Y)的简单示例入手。在这种情况下,线性回归方程可以表示为:
Y = X * w + b
其中, w 是权重, b 是偏置项。这意味着 Y 是 X 的线性函数,当 X 增加时, Y 也会相应增加,反之亦然。不过在现实世界中,很少有情况能呈现出可以用简单方程表达的清晰线性关系。但数据科学家有时会假设存在线性关系,尝试拟合线性方程以快速得到结果。线性回归通常所需的处理能力较少,因为有许多统计捷径可用于解决这些问题,像 Scikit - Learn 这样的机器学习库就内置了这些方法,为我们提供了便利。
w 和 b 是我们需要学习的权重。 w 是与变量 X 相关的常规权重,而 b 被称为偏置。即使变量 X 变为零,偏置项仍会使 Y 有一定的值。偏置相当于模型在没有输入影响的情况下对预测结果所做的一些假设。
我们会收集大量的 X 和 Y 值样本,并
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



