分类算法(classification problem)
逻辑回归(logistic regression)
hypothesis:
hθ(x)=g(θTx)g(z)=11+e−z
g(z)被称作S型函数(sigmoid function)或者逻辑函数(logistic function),函数图像如图所示,过 (0,0.5) 点,正无穷趋于 1 ,负无穷趋于
实际上,这个假设函数计算的是
P(y=1|x;θ)
,即给定
x
的条件下,
y={1,0,ififhθ(x)≥0.5hθ(x)<0.5nownowθTx≥0θTx<0
其中 θTx=0 或者 hθ(x)=0.5 被称为决策边界(decision boundary),易见 θ 确定下来后,决策边界也会确定下来。
在线性回归中用到的两种拟合的方法也可以用在这里:
- 线性 hθ(x)=g(θ0+θ1∗x1+θ2∗x2)
- 多项式 hθ(x)=g(θ0+θ1∗x1+θ2∗x2+θ3∗x21+θ4∗x22)
cost function
J(θ)=1m∑i=1mCost(hθ(x(i)),y(i))Cost(hθ(x),y)={−log(hθ(x))−log(1−hθ(x))ifify=1y=0
如果
hθ(x)
趋向于1的时候,
y
的预测值应当取作1,所以此时
如果
hθ(x)
趋向0的时候,
y
的预测值应当取做0,但是如果此时
对
y=0
的分析相似。
我们可以简化
Cost
:
Cost(hθ(x),y)=−ylog(hθ(x))−(1−y)log(1−hθ(x))
所以最后的cost function为:
J(θ)=−1m[∑i=1my(i)loghθ(x(i))+(1−y(i))log(1−hθ(x(i)))]
todo 这个式子是从极大似然估计而来的
为了得到 θ 的估计值,我们可以使用梯度下降,更新的过程如下:
θj:=θj−α∑i=1m(hθ(x(i))−y(i))x(i)j
关于这个式子的得到仍然是对代价函数 J(θ) 求偏导,以求能够找到以步伐 α 最快“下山”的路径。
求导过程:
