【数据挖掘 机器学习 】总结3:听徐老师讲课第三集

1.有监督学习

features(attributes) ----> label(target)    [ label(target)是为了告诉你对错]

机器学习要考虑他的准确性以及可解释性。

2.决策树算法(decision trees)

(1)Entropy(熵)

H\left ( X \right ) = -\sum p\left ( X=i \right )log{_{2}}^{p\left ( X=i \right )} >=0    ,(i=1,......n)

H表示熵。

熵越小,越稳定。

(2)Conditional Entropy(条件熵)       # 类比于条件概率

Mutual informational(互信息、信息增量)

I\left ( x,y \right ) = H(x) - H(x|y) =H(y) - H(y|x) > 0

(3)Gain(S, A) = 熵 - 条件熵的和   ???

考量一个模型:性能(精度)+ 复杂度

实际应用中:可以利用决策树去选取特征,再考虑使用其他模型。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值