人工智能实验四 决策树实验

将下面的文件按下图方式放置:

test_data.csv

色泽,根蒂,敲声,纹理,脐部,触感,好瓜
青绿,蜷缩,沉闷,清晰,凹陷,硬滑,1
浅白,蜷缩,浊响,清晰,凹陷,硬滑,1
乌黑,稍蜷,浊响,清晰,稍凹,硬滑,1
乌黑,稍蜷,沉闷,稍糊,稍凹,硬滑,0
浅白,硬挺,清脆,模糊,平坦,硬滑,0
浅白,蜷缩,浊响,模糊,平坦,软粘,0
青绿,稍蜷,浊响,稍糊,凹陷,硬滑,0

train_data.csv

色泽,根蒂,敲声,纹理,脐部,触感,好瓜
青绿,蜷缩,浊响,清晰,凹陷,硬滑,1
乌黑,蜷缩,沉闷,清晰,凹陷,硬滑,1
乌黑,蜷缩,浊响,清晰,凹陷,硬滑,1
青绿,稍蜷,浊响,清晰,稍凹,软粘,1
乌黑,稍蜷,浊响,稍糊,稍凹,软粘,1
青绿,硬挺,清脆,清晰,平坦,软粘,0
浅白,稍蜷,沉闷,稍糊,凹陷,硬滑,0
乌黑,稍蜷,浊响,清晰,稍凹,软粘,0
浅白,蜷缩,浊响,模糊,平坦,硬滑,0
青绿,蜷缩,沉闷,稍糊,稍凹,硬滑,0

123.py

# 导入模块
import pandas as pd
import numpy as np
import os
from collections import Counter
from math import log2
#ID3算法

"""
功能:从给定的文件路径读取Excel文件,并返回pandas的DataFrame对象。
输入:filePath(文件路径)。
输出:DataFrame对象,包含Excel文件中的数据。
"""
def getData(filePath):
    data = pd.read_excel(filePath)
    return data

"""
功能:处理DataFrame数据,去掉第一列(通常是索引或ID列),并转换为列表的列表(即二维列表)形式。
输入:data(DataFrame对象)。
输出:处理后的二维列表。
"""
def dataDeal(data):
    dataList = np.array(data).tolist()
    dataSet = [element[1:] for element in dataList]
    return dataSet

"""
功能:从DataFrame中提取除第一列和最后一列外的所有列标签(特征标签)。
输入:data(DataFrame对象)。
输出:特征标签的列表。
"""
def getLabels(data):
    labels = list(data.columns)[1:-1]
    return labels

"""
功能:从数据集中提取所有不同的目标类别。
输入:dataSet(二维列表形式的数据集)。
输出:包含所有不同目标类别的集合。
"""
def targetClass(dataSet):
    classification = set([element[-1] for element in dataSet])
    return classification

"""
功能:使用多数投票规则确定数据集中最常见的目标类别。
输入:dataSet(二维列表形式的数据集)。
输出:最常见的目标类别。
"""
def majorityRule(dataSet):
    mostKind = Counter([element[-1] for element in dataSet]).most_common(1)
    majorityKind = mostKind[0][0]
    return majorityKind

"""
功能:计算数据集的信息熵,用于衡量数据集的混乱程度。
输入:dataSet(二维列表形式的数据集)。
输出:数据集的信息熵。
"""
def infoEntropy(dataSet):
    classColumnCnt = Counter([element[-1] for element in dataSet])
    Ent = 0
    for symbol in classColumnCnt:
        p_k = classColumnCnt[symbol] / len(dataSet)
        Ent = Ent - p_k * log2(p_k)
    return Ent

"""
功能:根据给定的属性值,从数据集中筛选出具有该属性值的所有行。
输入:dataSet(二维列表形式的数据集)、value(属性值)、iColumn(属性所在的列索引)。
输出:筛选后的二维列表。
"""
def makeAttributeData(dataSet, value, iColumn):
    attributeData = []
    for element in dataSet:
        if element[iColumn] == value:
            row = element[:iColumn]
            row.extend(element[iColumn + 1:])
            attributeData.append(row)
    return attributeData

"""
功能:计算按照某列属性划分数据集后得到的信息增益。信息增益用于衡量按该属性划分数据后,数据集混乱程度的减少量。
输入:dataSet(二维列表形式的数据集)、iColumn(属性所在的列索引)。
输出:按该属性划分数据集后的信息增益。
"""
def infoGain(dataSet, iColumn):
    Ent = infoEntropy(dataSet)
    tempGain = 0.0
    attribute = set([element[iColumn] for element in dataSet])
    for value in attribute:
        attributeData = makeAttributeData(dataSet, value, iColumn)
        tempGain = tempGain + len(attributeData) / len(dataSet) * infoEntropy(attributeData)
        Gain = Ent - tempGain
    return Gain

"""
功能:选择最优的划分属性,即信息增益最大的属性。
输入:dataSet(二维列表形式的数据集)、labels(特征标签的列表)。
输出:最优划分属性的列索引。
"""
def selectOptimalAttribute(dataSet, labels):
    bestGain = 0
    sequence = 0
    for iColumn in range(0, len(labels)):  # 不计最后的类别列
        Gain = infoGain(dataSet, iColumn)
        if Gain > bestGain:
            bestGain = Gain
            sequence = iColumn
        print(labels[iColumn], Gain)
    return sequence

"""
这个函数是构建决策树的核心。它接受两个参数:
dataSet:包含样本的数据集,每个样本是一个特征向量。
labels:与dataSet中每个样本的特征向量对应的标签列表。
"""
def createTree(dataSet, labels):
    classification = targetClass(dataSet)  # 获取类别种类(集合去重)
    if len(classification) == 1:
        return list(classification)[0]
    if len(labels) == 1:
        return majorityRule(dataSet)  # 返回样本种类较多的类别
    sequence = selectOptimalAttribute(dataSet, labels)
    print(labels)
    optimalAttribute = labels[sequence]
    del (labels[sequence])
    myTree = {optimalAttribute: {}}
    attribute = set([element[sequence] for element in dataSet])
    for value in attribute:
        print(myTree)
        print(value)
        subLabels = labels[:]
        myTree[optimalAttribute][value] = \
            createTree(makeAttributeData(dataSet, value, sequence), subLabels)
    return myTree

"""
这个函数是程序的入口点,它执行以下操作:

读取数据:
从给定的文件路径(Excel文件)读取数据。
数据处理:
使用dataDeal函数处理读取的数据,可能是为了转换为适合算法处理的格式。
获取标签:
使用getLabels函数获取数据的特征标签。
构建决策树:
调用createTree函数,传入处理后的数据集和特征标签,得到决策树。
返回决策树:
返回构建的决策树。
"""
def main():
    filePath = r'C:\Users\Lenovo\Desktop\Artificial\jueceshu001\西瓜数据集.xls'
    data = getData(filePath)
    dataSet = dataDeal(data)
    labels = getLabels(data)
    myTree = createTree(dataSet, labels)
    return myTree


if __name__ == '__main__':
    myTree = main()
print(myTree)

# 绘制可视化树

import matplotlib.pylab as plt
import matplotlib

# 能够显示中文
matplotlib.rcParams['font.sans-serif'] = ['SimHei']
matplotlib.rcParams['font.serif'] = ['SimHei']

# 分叉节点,也就是决策节点
decisionNode = dict(boxstyle="sawtooth", fc="0.8")

# 叶子节点
leafNode = dict(boxstyle="round4", fc="0.8")

# 箭头样式
arrow_args = dict(arrowstyle="<-")


def plotNode(nodeTxt, centerPt, parentPt, nodeType):
    """
    绘制一个节点
    :param nodeTxt: 描述该节点的文本信息
    :param centerPt: 文本的坐标
    :param parentPt: 点的坐标,这里也是指父节点的坐标
    :param nodeType: 节点类型,分为叶子节点和决策节点
    :return:
    """
    createPlot.ax1.annotate(nodeTxt, xy=parentPt, xycoords='axes fraction',
                            xytext=centerPt, textcoords='axes fraction',
                            va="center", ha="center", bbox=nodeType, arrowprops=arrow_args)


def getNumLeafs(myTree):
    """
    获取叶节点的数目
    :param myTree:
    :return:
    """
    # 统计叶子节点的总数
    numLeafs = 0

    # 得到当前第一个key,也就是根节点
    firstStr = list(myTree.keys())[0]

    # 得到第一个key对应的内容
    secondDict = myTree[firstStr]

    # 递归遍历叶子节点
    for key in secondDict.keys():
        # 如果key对应的是一个字典,就递归调用
        if type(secondDict[key]).__name__ == 'dict':
            numLeafs += getNumLeafs(secondDict[key])
        # 不是的话,说明此时是一个叶子节点
        else:
            numLeafs += 1
    return numLeafs


def getTreeDepth(myTree):
    """
    得到数的深度层数
    :param myTree:
    :return:
    """
    # 用来保存最大层数
    maxDepth = 0

    # 得到根节点
    firstStr = list(myTree.keys())[0]

    # 得到key对应的内容
    secondDic = myTree[firstStr]

    # 遍历所有子节点
    for key in secondDic.keys():
        # 如果该节点是字典,就递归调用
        if type(secondDic[key]).__name__ == 'dict':
            # 子节点的深度加1
            thisDepth = 1 + getTreeDepth(secondDic[key])

        # 说明此时是叶子节点
        else:
            thisDepth = 1

        # 替换最大层数
        if thisDepth > maxDepth:
            maxDepth = thisDepth

    return maxDepth


def plotMidText(cntrPt, parentPt, txtString):
    """
    计算出父节点和子节点的中间位置,填充信息
    :param cntrPt: 子节点坐标
    :param parentPt: 父节点坐标
    :param txtString: 填充的文本信息
    :return:
    """
    # 计算x轴的中间位置
    xMid = (parentPt[0] - cntrPt[0]) / 2.0 + cntrPt[0]
    # 计算y轴的中间位置
    yMid = (parentPt[1] - cntrPt[1]) / 2.0 + cntrPt[1]
    # 进行绘制
    createPlot.ax1.text(xMid, yMid, txtString)


def plotTree(myTree, parentPt, nodeTxt):
    """
    绘制出树的所有节点,递归绘制
    :param myTree: 树
    :param parentPt: 父节点的坐标
    :param nodeTxt: 节点的文本信息
    :return:
    """
    # 计算叶子节点数
    numLeafs = getNumLeafs(myTree=myTree)

    # 计算树的深度
    depth = getTreeDepth(myTree=myTree)

    # 得到根节点的信息内容
    firstStr = list(myTree.keys())[0]

    # 计算出当前根节点在所有子节点的中间坐标,也就是当前x轴的偏移量加上计算出来的根节点的中心位置作为x轴(比如说第一次:初始的x偏移量为:-1/2W,计算出来的根节点中心位置为:(1+W)/2W,相加得到:1/2),当前y轴偏移量作为y轴
    cntrPt = (plotTree.xOff + (1.0 + float(numLeafs)) / 2.0 / plotTree.totalW, plotTree.yOff)

    # 绘制该节点与父节点的联系
    plotMidText(cntrPt, parentPt, nodeTxt)

    # 绘制该节点
    plotNode(firstStr, cntrPt, parentPt, decisionNode)

    # 得到当前根节点对应的子树
    secondDict = myTree[firstStr]

    # 计算出新的y轴偏移量,向下移动1/D,也就是下一层的绘制y轴
    plotTree.yOff = plotTree.yOff - 1.0 / plotTree.totalD

    # 循环遍历所有的key
    for key in secondDict.keys():
        # 如果当前的key是字典的话,代表还有子树,则递归遍历
        if isinstance(secondDict[key], dict):
            plotTree(secondDict[key], cntrPt, str(key))
        else:
            # 计算新的x轴偏移量,也就是下个叶子绘制的x轴坐标向右移动了1/W
            plotTree.xOff = plotTree.xOff + 1.0 / plotTree.totalW
            # 打开注释可以观察叶子节点的坐标变化
            # print((plotTree.xOff, plotTree.yOff), secondDict[key])
            # 绘制叶子节点
            plotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)
            # 绘制叶子节点和父节点的中间连线内容
            plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))

    # 返回递归之前,需要将y轴的偏移量增加,向上移动1/D,也就是返回去绘制上一层的y轴
    plotTree.yOff = plotTree.yOff + 1.0 / plotTree.totalD


def createPlot(inTree):
    """
    需要绘制的决策树
    :param inTree: 决策树字典
    :return:
    """
    # 创建一个图像
    fig = plt.figure(1, facecolor='white')
    fig.clf()
    axprops = dict(xticks=[], yticks=[])
    createPlot.ax1 = plt.subplot(111, frameon=False, **axprops)
    # 计算出决策树的总宽度
    plotTree.totalW = float(getNumLeafs(inTree))
    # 计算出决策树的总深度
    plotTree.totalD = float(getTreeDepth(inTree))
    # 初始的x轴偏移量,也就是-1/2W,每次向右移动1/W,也就是第一个叶子节点绘制的x坐标为:1/2W,第二个:3/2W,第三个:5/2W,最后一个:(W-1)/2W
    plotTree.xOff = -0.5 / plotTree.totalW
    # 初始的y轴偏移量,每次向下或者向上移动1/D
    plotTree.yOff = 1.0
    # 调用函数进行绘制节点图像
    plotTree(inTree, (0.5, 1.0), '')
    # 绘制
    plt.show()


if __name__ == '__main__':
    createPlot(myTree)

C45_er.py

import pandas as pd
import numpy as np

#计算信息熵
def cal_information_entropy(data):
    data_label = data.iloc[:,-1]
    label_class =data_label.value_counts() #总共有多少类
    Ent = 0
    for k in label_class.keys():
        p_k = label_class[k]/len(data_lab
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值