逻辑分类公式

博客介绍了逻辑分类相关知识,包括模型假设、代价函数、梯度下降法和多分类处理。给出了模型假设公式,推导了代价函数,阐述梯度下降法公式并指出与线性回归的差异,还说明了多分类时利用多个逻辑分类器确定识别类别的方法。

模型假设

hθ(x)=(1+e−θTx)−1 h_{\theta}\left( \boldsymbol{x} \right) =\left( 1+e^{-\boldsymbol{\theta }^T\boldsymbol{x}} \right) ^{-1} hθ(x)=(1+eθTx)1

代价函数

J(θ)=1m∑i=1mCost(hθ(x(i)),y(i)) J\left( \boldsymbol{\theta } \right) =\frac{1}{m}\sum_{i=1}^m{\text{Cost}\left( h_{\theta}\left( \boldsymbol{x}^{\left( i \right)} \right) ,y^{\left( i \right)} \right)} J(θ)=m1i=1mCost(hθ(x(i)),y(i))

如果预测量hθ(x)h_{\theta}\left( x \right)hθ(x)yyy不相符,则带来的代价是指数增加的,反之如果相符合,则指数减小,其中,

Cost(hθ(x),y)={−log⁡(hθ(x))  y=1−log⁡(1−hθ(x))  y=0 \text{Cost}\left( h_{\theta}\left( \boldsymbol{x} \right) ,y \right) =\begin{cases} -\log \left( h_{\theta}\left( \boldsymbol{x} \right) \right)& \,\, y=1\\ -\log \left( 1-h_{\theta}\left( \boldsymbol{x} \right) \right)& \,\, y=0\\ \end{cases} Cost(hθ(x),y)={log(hθ(x))log(1hθ(x))y=1y=0
将上式化简等价为
Cost(hθ(x),y)=−ylog⁡(hθ(x))+(y−1)log⁡(1−hθ(x)) \text{Cost}\left( h_{\theta}\left( \boldsymbol{x} \right) ,y \right) =-y\log \left( h_{\theta}\left( \boldsymbol{x} \right) \right) +\left( y-1 \right) \log \left( 1-h_{\theta}\left( \boldsymbol{x} \right) \right) Cost(hθ(x),y)=ylog(hθ(x))+(y1)log(1hθ(x))
综上,
J(θ)=1m∑i=1m[−y(i)log⁡(hθ(x(i)))+(y(i)−1)log⁡(1−hθ(x(i)))] J\left( \boldsymbol{\theta } \right) =\frac{1}{m}\sum_{i=1}^m{\left[ -y^{\left( i \right)}\log \left( h_{\theta}\left( \boldsymbol{x}^{\left( i \right)} \right) \right) +\left( y^{\left( i \right)}-1 \right) \log \left( 1-h_{\theta}\left( \boldsymbol{x}^{\left( i \right)} \right) \right) \right]} J(θ)=m1i=1m[y(i)log(hθ(x(i)))+(y(i)1)log(1hθ(x(i)))]

梯度下降法

θj  :=  θj−α∂∂θjJ(θ)  (j=0,1,2,3 …n) \theta _j\,\,:=\,\,\theta _j-\alpha \frac{\partial}{\partial \theta _j}J\left( \boldsymbol{\theta } \right) \,\, \text{(j}=\text{0,1,2,3 }\dots n\text{)} θj:=θjαθjJ(θ)j=012n
推导为
θj  :=  θj− α1m∑i=1m(hθ(x(i))−y(i))xj(i)  (j=0,1,2,3 …n) \theta _j\,\,:=\,\,\theta _j-\,\alpha \frac{1}{m}\sum_{\text{i}=1}^{\text{m}}{\left( h_{\theta}\left( \boldsymbol{x}^{\left( i \right)} \right) -\text{y}^{\left( i \right)} \right) x_{j}^{\left( i \right)}}\,\,\text{(j}=\text{0,1,2,3 }\dots n\text{)} θj:=θjαm1i=1m(hθ(x(i))y(i))xj(i)j=012n
可以发现逻辑分类的梯度下降法的基本公式和线性回归的梯度下降法一样,不一样的地方在于他们的代价函数hθ(x)h_{\theta}\left( \boldsymbol{x} \right)hθ(x)

多个分类

对于多个分类,利用多个逻辑分类器,观察各个分类器得到的可能值,可能最大的就是识别的类

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值