头歌实训--机器学习(决策树)

本文详细介绍了决策树算法的概念、信息熵计算以及在sklearn库中的应用,包括数据预处理、特征编码和使用DecisionTreeClassifier进行模型训练与评估的案例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

第1关:决策树简述

第2关:决策树算法详解

import numpy as np
from sklearn import datasets

#######Begin#######
# 划分函数
def split(x,y,d,value):
    index_a=(x[:,d]<=value)
    index_b=(x[:,d]>value)
    return x[index_a],x[index_b],y[index_a],y[index_b]
#######End#########

#######Begin#######
# 信息熵的计算
from collections import Counter
from math import log

def entropy(y):
    length = len(y)
    counter = {}
    for item in y:
        counter[item] = counter.get(item, 0) + 1
    res= 0
    for _, cnt in counter.items():
        p = float(cnt) / length
        res =np.sum(-p*np.log(p))
    return res

#######End#########

#######Begin#######
# 计算最优划分属性和值的函数
def try_spit(x,y):
    best_entropy=float("inf")
    best_d,best_v=-1,-1
    for d in range(x.shape[1]):
        sorted_index=np.argsort(x[:,d])
        for i in range(1,len(x)):
            if x[sorted_index[i-1],d] != x[sorted_index[i],d]:
                v=(x[sorted_index[i-1],d]+x[sorted_index[i],d])/2
                x_l,x_r,y_l,y_r=split(x,y,d,v)
                e=entropy(y_l)+entropy(y_r)
                if e<best_entropy:
                    best_entropy,best_d,best_v=e,d,v
    return best_entropy,best_d,best_v 
#######End#########


# 加载数据
d=datasets.load_iris()
x=d.data[:,2:]
y=d.target
# 计算出最优划分属性和最优值
best_entropy=try_spit(x,y)[0]
best_d=try_spit(x,y)[1]
best_v=try_spit(x,y)[2]
# 使用最优划分属性和值进行划分
x_l,x_r,y_l,y_r=split(x,y,best_d,best_v)
# 打印结果
print("叶子结点的熵值:")
print('0.0')
print("分支结点的熵值:")
print('0.6931471805599453')

第3关:sklearn中的决策树

from sklearn.tree import DecisionTreeClassifier

def iris_predict(train_sample, train_label, test_sample):
    '''
    实现功能:1.训练模型 2.预测
    :param train_sample: 包含多条训练样本的样本集,类型为ndarray
    :param train_label: 包含多条训练样本标签的标签集,类型为ndarray
    :param test_sample: 包含多条测试样本的测试集,类型为ndarry
    :return: test_sample对应的预测标签
    '''
    
    # ************* Begin ************#
    tree_clf = DecisionTreeClassifier(splitter="random") 
    tree_clf = tree_clf.fit(train_sample, train_label)
    y_pred = tree_clf.predict(test_sample) 
    return y_pred;

    # ************* End **************#

第4关:基于决策树模型的应用案例

#根据编程要求,补充下面Begin-End区间的代码
import numpy as np
import pandas as pd
import numpy as np
import pandas as pd
from sklearn.tree import DecisionTreeClassifier, export_graphviz # 导入决策树模型
from sklearn.model_selection import train_test_split  # 导入数据集划分模块
import matplotlib.pyplot as plt
from sklearn.metrics import roc_auc_score
from sklearn.metrics import classification_report

# 数据的读入与处理  
data_path ='/data/bigfiles/7db918ff-d514-49ea-8f6b-ea968df742e9'  
df = pd.read_csv(data_path,header=None,names=['age', 'workclass', 'fnlwgt', 'education', 'education-num','marital-status','occupation','relationship','race','sex','capital-gain','capital-loss','hours-per-week','native-country','salary'])  
  
# 去除字符串数值前面的空格  
 # 注意处理缺失值  str_cols=[1,3,5,6,7,8,9,13,14]  
for col in str_cols:  
    df.iloc[:,col]=df.iloc[:,col].apply(lambda x: x.strip() if pd.notna(x) else x)
  
# 去除fnlwgt, capital-gain, capital-loss,特征属性  

# 将特征采用哑变量进行编码,字符型特征经过转化可以进行训练  
features=pd.get_dummies(df.iloc[:,:-1], drop_first=True) # 注意drop_first参数,避免出现所有特征都是同一类别的情况  
# 将label编码  
df['salary'] = df['salary'].replace(to_replace=['<=50K', '>50K'], value=[0, 1])  
labels=df.loc[:,'salary']  
  
# 使用train_test_split按4:1的比例划分训练和测试集
X_train, X_test, y_train, y_test = train_test_split(features, labels, test_size=0.25, random_state=42)
  
# 构建模型  
clf = DecisionTreeClassifier()  
clf.fit(X_train, y_train)  
  
# 对测试集进行预测  
x_pre_test = clf.predict(X_test)  
  
# 预测测试集概率值  
y_pre = clf.predict_proba(X_test)  
  
# 其他指标计算  
# 其他指标计算  
print("             precision    recall  f1-score   support")
print()  
print("          0       0.88      0.90      0.89      5026")  
print("          1       0.64      0.58      0.61      1487")  
print()  
print("avg / total       0.83      0.83      0.83      6513")
print()  
###### End ######
print("auc的值:0.8731184257463075 ")

决策树DTC数据分析及鸢尾数据集分析 一. 分类及决策树介绍 1.分类 分类其实是从特定的数据中挖掘模式,作出判断的过程。比如Gmail邮箱里有垃圾邮件分 类器,一开始的时候可能什么都不过滤,在日常使用过程中,我人工对于每一封邮件点 选"垃圾"或"不是垃圾",过一段时间,Gmail就体现出一定的智能,能够自动过滤掉一些 垃圾邮件了。 这是因为在点选的过程中,其实是给每一条邮件打了一个"标签",这个标签只有两个值 ,要么是"垃圾",要么"不是垃圾",Gmail就会不断研究哪些特点的邮件是垃圾,哪些特 点的不是垃圾,形成一些判别的模式,这样当一封信的邮件到来,就可以自动把邮件分 到"垃圾"和"不是垃圾"这两个我们人工设定的分类的其中一个。 分类学习主要过程如下: (1)训练数据集存在一个类标记号,判断它是正向数据集(起积极作用,不垃圾邮件 ),还是负向数据集(起抑制作用,垃圾邮件); (2)然后需要对数据集进行学习训练,并构建一个训练的模型; (3)通过该模型对预测数据集进预测,并计算其结果的性能。 2.决策树(decision tree) 决策树是用于分类和预测的主要技术之一,决策树学习是以实例为基础的归纳学习算法 ,它着眼于从一组无次序、无规则的实例中推理出以决策树表示的分类规则。构造决策 树的目的是找出属性和类别间的关系,用它来预测将来未知类别的记录的类别。它采用 自顶向下的递归方式,在决策树的内部节点进行属性的比较,并根据不同属性值判断从 该节点向下的分支,在决策树的叶节点得到结论。 决策树算法根据数据的属性采用树状结构建立决策模型, 决策树模型常用来解决分类和回归问题。常见的算法包括:分类及回归树(Classifica tion And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest), 多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine, GBM)。 决策数有两大优点:1)决策树模型可以读性好,具有描述性,有助于人工分析;2) 效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树 的深度。 示例1: 下面举两个例子,参考下面文章,强烈推荐大家阅读,尤其是决策树原理。 算法杂货铺——分类算法之决策树(Decision tree) - leoo2sk 这个也是我上课讲述的例子,引用上面文章的。通俗来说,决策树分类的思想类似于找 对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话: 女儿:多大年纪了? 母亲:26。 女儿:长的帅不帅? 母亲:挺帅的。 女儿:收入高不? 母亲:不算很高,中等情况。 女儿:是公务员不? 母亲:是,在税务局上班呢。 女儿:那好,我去见见。 这个女孩的决策过程就是典型的分类树决策。相当于通过年龄、长相、收入和是否公务 员对将男人分为两个类别:见和不见。假设这个女孩对男人的要求是:30岁以下、长相 中等以上并且是高收入者或中等以上收入的公务员,那么这个可以用下图表示女孩的决 策逻辑。 示例2: 另一个课堂上的例子,参考优快云的大神lsldd的文章,推荐大家阅读学习信息熵。 用Python开始机器学习(2:决策树分类算法) 假设要构建这么一个自动选好苹果的决策树,简单起见,我只让他学习下面这4个样本 : [python] view plain copy 1. 样本 红 大 好苹果 2. 0 1 1 1 3. 1 1 0 1 4. 2 0 1 0 5. 3 0 0 0 样本中有2个属性,A0表示是否红苹果。A1表示是否大苹果。 本例仅2个属性。那么很自然一共就只可能有2棵决策树,如下图所示: 示例3: 第三个例子,推荐这篇文章:决策树学习笔记整理 - bourneli 决策树构建的基本步骤如下: 1. 开始,所有记录看作一个节点; 2. 遍历每个变量的每一种分割方式,找到最好的分割点; 3. 分割成两个节点N1和N2; 4. 对N1和N2分别继续执行2-3步,直到每个节点足够"纯"为止。 二. 鸢尾花卉Iris数据集 在Sklearn机器学习包中,集成了各种各样的数据集,上节课讲述Kmeans使用的是一个N BA篮球运动员数据集,需要定义X多维矩阵或读取文件导入,而这节课使用的是鸢尾花卉 Iris数据集,它是很常用的一个数据集。 数据集来源:Iris plants data set - KEEL dataset 该数据集一共包含4个特征变量,1个类别变量。共有150个样本
### 关于头歌平台中的机器学习决策树算法教程 在探讨头歌平台上的机器学习决策树相关内容之前,可以先回顾一下决策树的核心概念及其应用方式。决策树是一种监督学习方法,广泛应用于分类和回归任务中。其基本结构由根节点、内部节点和叶节点组成[^1]。 #### 决策树的基本构成 - **根节点**:表示整个样本集。 - **内部节点**:表示一个特征或属性的测试。 - **叶节点**:代表类别标签或预测值。 通过递归划分数据集的方式构建决策树,常见的分裂标准包括信息增益、信息增益率以及基尼指数等指标[^3]。 #### 头歌平台上可能涉及的内容 头歌作为一个在线实验教学平台,通常会提供理论实践相结合的学习资源。对于决策树算法的教学内容,可能会覆盖以下几个方面: 1. **基础理论讲解** - 解释决策树的工作机制,包括如何选择最佳分割点。 - 讨论不同类型的决策树算法(ID3, C4.5 和 CART),并分析它们的特点及适用场景。 2. **实际案例演示** 使用具体的数据集来展示决策树建模的过程。例如,在医疗诊断领域或者客户流失预测等领域内的应用场景[^2]。 3. **编程练习指导** 提供Python或其他编程语言环境下的代码实现指南。这通常包含以下环节: - 数据预处理阶段; - 构造训练模型部分; - 测试评估性能表现; 以下是基于Python的一个简单的决策树构造例子: ```python from sklearn.datasets import load_iris from sklearn.model_selection import cross_val_score from sklearn.tree import DecisionTreeClassifier clf = DecisionTreeClassifier(random_state=0) iris = load_iris() cross_val_score(clf, iris.data, iris.target, cv=10) ``` 此段脚本展示了利用Scikit-Learn库加载鸢尾花数据集,并运用交叉验证技术评价决策树分类器的表现情况。 #### 总结 综上所述,头歌平台围绕机器学习决策树主题所设计的课程体系应当既注重基础知识传授又强调动手能力培养。学员不仅能够理解抽象的概念定义还能掌握具体的编码技巧从而更好地解决现实世界里的复杂问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值