机器学习实战笔记(三):决策树算法的Python实现

本文介绍了决策树算法在Python中的实现,重点讨论了算法的优点,如计算复杂度低、结果易理解,以及对数据缺失的不敏感性。同时提到了过度匹配的风险。内容还涉及了ID3算法在划分数据中的应用,并深入讲解了信息熵的概念,它是衡量数据无序度的对数函数,用于指导数据集的最佳分类方式。通过计算信息熵的最大值来确定最优的特征划分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

from math import log
import operator

def createDataSet():
    dataSet = [[1, 1, 'yes'],
               [1, 1, 'yes'],
               [1, 0, 'no'],
               [0, 1, 'no'],
               [0, 1, 'no']]                          #创建数据集
    labels = ['no surfacing','flippers']            #分类属性
    return dataSet, labels

def calcShannonEnt(dataSet):
    numEntries = len(dataSet)                    #求样本矩阵的长度
    labelCounts = {}
    for featVec in dataSet:                        #遍历dataSet中的每一行
        currentLabel = featVec[-1]               #每行中最后一个数表示数据的类标签
        if currentLabel not in labelCounts.keys(): 
              labelCounts[currentLabel] = 0       #如果标签数据中没有该标签,则添加该标签
        labelCounts[currentLabel] += 1           #如果有,则标签数加1
    shannonEnt = 0.0
    for key in labelCounts:                         #遍历标签数组
        prob = float(labelCounts[key])/numEntries   #标签数除以样本矩阵的长度,即概率
        shannonEnt -= prob * log(prob,2)         #以2为底求对数
    return shannonEnt

‘’‘
计算所有属性值得信息增益,并计算最佳划分方法
传入的参数,dataSet是样本矩阵,axis是第axis的位置,value是该位置的值
例:tree.splitDataSet(dataSet,1,1):求dataSet中第2个位置是1的数组
’‘’    
def splitDataSet
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值