前言
逻辑回归是机器学习非常重要的一种模型,在机器学习的某些场景下,甚至出现了“一个LR打天下”的情况,可以说这个模型是机器学习必须精通的模型。在这之前,你肯定接触过线性回归,但是逻辑回归和线性回归存在不小的差异,我需要先帮你弄清线性回归和逻辑回归是什么,他们有什么区别,再通过吴恩达老师的视频,详细地讲一下逻辑回归。
什么是线性回归(Linear regression)
首先我们要了解,什么是回归?
我们认为所有的特定组数据是相关的,符合一定的分布规律(可以想象成各种曲线),而回归就是来确定这个曲线的参数从而确定这个曲线(曲线可以用数学函数来表示)。
继而我们可以根据确定的函数和要预测的一组x值,来计算新的数据的结果,这个结果就是我们要预测的x值对应的y值。
简单来说,回归是一种拟合数据的方法。
第二步,我们了解线性回归是什么。我们学习代数的时候会看到下面这样的式子:
就是一堆x1,x2……的变量乘以他们对应的权重w1,w2…… ,得到最后的结果。
而线性回归就是已经知道图上的一些数据点,用一根曲线去拟合的过程。简单来说,就是确定w1,w2这些参数的值。
知道这些参数值后,再有新的x值,我们就可以计算(预测)出y值。这是我们的目的。

什么是逻辑回归( Logistic Regression)
上面说了线性回归,它很简单也很好理解,但线性回归有很多缺点,最明显的是两

本文深入讲解逻辑回归模型,对比线性回归,强调其在分类问题中的应用。通过sigmoid函数将输出限制在0到1间,适合估计事件发生的概率。文章还介绍了如何训练参数w和b,以及逻辑回归在工业界的广泛应用。
最低0.47元/天 解锁文章
643

被折叠的 条评论
为什么被折叠?



