逻辑回归(Logistic Regression,LR)

分类回归是机器学习的两个主要问题。

  • 分类处理的是离散数据
  • 回归处理的是连续数据

线性回归:回归

  • 拟合一条线
  • 预测函数:              y = W^{T}*x+b

逻辑回归:分类——找到一条线可以将不同类别区分开

  • 虽然称为逻辑回归,但是实际是一种分类学习方法。是用逻辑函数将线性回归的结果映射到(0,1)值。
  • 逻辑函数                       \sigma = \frac{1}{1+e^{-x}}
  • 预测函数:              y = \sigma (W^{T}*x+b)

逻辑回归中的参数:求解

极大似然函数,估计得出目前结果的最大可能性

                                p(Y=1|x) = \frac{1}{1+e^{-x}}=g_{\theta }(x)

                                p(Y=0|x) = 1-\frac{1}{1+e^{-x}} =\frac{1}{1+e^{x}}=1-g_{\theta }(x)

所以对于一个样本(x,y),他的标签y的概率可以定义为:

                                 p(y|x,\theta ) = (g_{\theta }(x)))^{y}(1-g_{\theta }(x))^{1-y}

当有m也样本时:

                             L(\theta ) =\prod_{i=1}^{m} p(y_{i}|x_{i},\theta ) = \sum_{i=1}^{m}(g_{\theta }(x_{i})))^{y_{i}}(1-g_{\theta }(x_{i}))^{1-y_{i}}  

其中\theta为需要求的参数。

怎样求解,不改变函数单调性的对数函数,可以把乘法变为加法,得到对数似然函数。所以可以用对数似然函数构造损失函数,然后采用梯度下降法求解。

未完

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值