我对各种机器学习算法的理解(一句话)

EM算法

通过概率变换(添加隐变量),使得似然函数分解为Lowerbound+KL divergence的方式,利用KL>=0,令KL=0然后最大化lowerbound.通过不断扩大lowerbound来优化似然函数达到局部最优。

 

AdaBoost

两种权值设置,一种是通过error_rate确定的分类器的权值(随error_rate减少而增大),一种是由于犯错不断更新的instance的权重。下界:todo

 

GDBT

分列时info gain 数值上 =  互信息(信道容量), 可以将分裂选择看做多个信道,选择容量最大的信道,这样在保证可区分能力的情况下减少了feature的数量

 

信息论

Dkl散度>0

Jenson‘s inequality -> 对数求和不等式 -> Dkl>0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值