softmax 回归原理及python实现

softmax回归python实现程序

1、Logistic回归:

1.1、逻辑回归数据集

[(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))] [ ( x ( 1 ) , y ( 1 ) ) , ( x ( 2 ) , y ( 2 ) ) , . . . , ( x ( m ) , y ( m ) ) ]

y{ 0,1} y ∈ { 0 , 1 }

1.2、 样本发生的概率,即y取1的概率:

hθ(x)=11+exp(θx) h θ ( x ) = 1 1 + e x p ( − θ ⋅ x )

1.3、整个样本的似然函数为:

  • 似然函数
    L=hθ(x(i))y(i)(1hθ(x(i)))1y(i) L = ∏ h θ ( x ( i ) ) y ( i ) ( 1 − h θ ( x ( i ) ) ) 1 − y ( i )
  • 对数似然函数为:
    logL=i=1m(y(i)log(hθ(x(i))+(1y(i))log(1hθ(x(i)))) l o g L = ∑ i = 1 m ( y ( i ) l o g ( h θ ( x ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ) ) )

1.4、代价函数,及代价函数偏导:

  • 代价函数
    J(θ)=1mi=1m(y(i)log(hθ(x(i))+(1y(i))log(1hθ(x(i)))) J ( θ ) = − 1 m ∑ i = 1 m ( y ( i ) l o g ( h θ ( x ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ) ) )
  • 代价函数的偏导数:
    J(θ)θj=1m(i=1m(y(i)hθ(x(i)))x(i)) ∂ J ( θ ) ∂ θ j = − 1 m ( ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) ) ) x ( i ) )

1.5、梯度下降更新参数:

θj:=:=θjαJ(θ)θjθj+αm(i=1m(y(i)hθ(x(i)))x(i)j)(1)(2) (1) θ j := θ j − α ∂ J ( θ ) ∂ θ j (2) := θ j + α m ( ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) ) ) x j ( i ) )

1.6、对参数L2正则化

  • L2
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值