特征选择,构造决策树,修剪决策树 损失函数 基本知识 熵:H(X)=−∑ni=1pilogpi条件熵:H(Y|X)=∑ni=1piH(Y|X=xi)信息增益:g(D,A)=H(D)−H(D|A) A:特征D:数据集信息增益比: gR(D,A)=g(D,A)HA(D),HA(D)=−∑i=1n|Di|Dlog|Di|D 用信息增益选区特征倾向于选取取值多的特征,用信息增益比可以解决这个问题 ID3算法