李宏毅机器学习-----逻辑回归Logistic Regression

接上上一节的内容,我们认为通过概率模型最后推导出来函数还是为了求出最优的w和b,所以为什么不直接找一个function来直接求呢?那就是今天要介绍的Logistic Regretion!
[上节链接]链接

逻辑回归的Function Set

在这里插入图片描述
后验概率 P w , b ( C 1 ∣ x ) P_{w,b}(C_1|x) Pw,b(C1x)就是 σ ( z ) \sigma(z) σ(z),而z=wx+b,推导出function set就是 f w , b ( x ) = P w , b ( C 1 ∣ x ) f_{w,b}(x)=P_{w,b}(C_1|x) fw,b(x)=Pw,b(C1x),受w和b所控制的function
在这里插入图片描述
如果我们图像化这个function,就是上图这个样子啦!~

逻辑回归与线性回归比较

在这里插入图片描述
逻辑回归就是做多了一步,把wx+b放进sigmoid函数中,要求输出在0至1之间。

Step2:定义损失函数

在这里插入图片描述
假设有一组training data,size是N,而且分别有自己的类别标签C,给定一组 w和b,就可以计算这组w,b下产生上图N个训练数据的概率, f w , b ( x 3 ) f_{w,b}(x^3) fw,b(x3) x 3 x^3 x3属于C1的机率,因为它是C2,所以要用 1 − f w , b ( x 3 ) 1-f_{w,b}(x^3) 1fw,b(x3),最好的w和b,就是让概率 L ( w , b ) L(w,b) L(w,b)最大的时候, w ∗ , b ∗ = a r g m a x w ​ , b ​ L ( w , b ) w ^∗ ,b^ ∗ =argmax _{w ​ , b} ​ L(w,b) w,b=argmaxw,bL(w,b)
在这里插入图片描述
将训练集数字化,Class1等于1,Class2等于0,并且将式中求max通过取负自然对数转化为求min,化成 − l n -ln ln的格式之后,相乘就等于相加
在这里插入图片描述
− l n L ( w , b ) −lnL(w,b) lnL(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值