决策树

决策树在机器学习算法中处理分类问题。
通过所给的训练数据学习得到一个模型,对新的数据进行分类判断。达到“决策”的效果,我们称这样学习得到的树为决策树。

决策树归纳是从有类标号的训练元组中学习决策模型。常用的决策树算法有ID3,C4.5和CART。它们都是采用贪心(即非回溯的)方法,自顶向下递归的分治方法构造。这几个算法选择属性划分的方法各不相同,ID3使用的是信息增益,C4.5使用的是信息增益率,而CART使用的是Gini基尼指数。下面来简单介绍下决策树的理论知识。内容包含信息增益信息增益率以及Gini指数的概念及公式。

这里讲述我的一些浅显的理解,后面如果有积累,继续更新内容:
熵:1948年香农提出了“信息熵”的概念,解决了对信息的量化度量的问题。
表达的是概率与信息冗余度之间的关系
性质:
单调性:发生概率越大的事件得到的信息量越小
非负性:信息熵非负,得到信息量>=0
累加性:多随机事件同时发生存在的总不确定性
香农从数学上,严格证明了满足上述三个条件的随机变量不确定性度量函数具有唯一形式:
然后我们从决策树的角度理解,Ent越小,信息量越大,样本的纯度越高
信息增益:
我们用信息增益选择最优的划分属性,信息增益等于总的样本的信息熵减去属性中取值的平均信息熵
所以,信息增益越大,纯度提升越大。
类似与哈夫曼树,我们要的到最优路径,能够最快的判断一个样本的类别。
一个样本进入决策树中,我们要依据之前训练的模型,更快的得到样本的类别。
所以训练过程中,依据训练数据选择每个属性之后,所剩下的样本类别更少,所构建的决策树的路径更短。(纯度)
从公式上理解:信息增益可以理解成剩余的信息量,剩余的信息量越少,离最后得到的结果越近
信息增益率:信息增益的改良算法

决策树伪代码:
输入:D, A
过程:函数getDecisionTree(D,A)
生成节点node
if(D中样本全部属于一类) then
将node编辑为叶子节点 return
end if
if A != null or D中样本在A上的取值相同 then
将node至于叶子节点,节点类型为任意一个样本的类型 return
end if
从A中选取最优的划分属性/Card/ID3/C4.5
for A do
为node生成一个分支节点,Dv表示的D中取值为a的样本子集
ifDv为空 then
将分支节点标记为叶子节点,类别为样本子集中类别最大的类 return
else
getDecisionTree(Dv, A/a)
end if
end for


内容概要:本文深入解析了扣子COZE AI编程及其详细应用代码案例,旨在帮助读者理解新一代低门槛智能体开发范式。文章从五个维度展开:关键概念、核心技巧、典型应用场景、详细代码案例分析以及未来发展趋势。首先介绍了扣子COZE的核心概念,如Bot、Workflow、Plugin、Memory和Knowledge。接着分享了意图识别、函数调用链、动态Prompt、渐进式发布及监控可观测等核心技巧。然后列举了企业内部智能客服、电商导购助手、教育领域AI助教和金融行业合规质检等应用场景。最后,通过构建“会议纪要智能助手”的详细代码案例,展示了从需求描述、技术方案、Workflow节点拆解到调试与上线的全过程,并展望了多智能体协作、本地私有部署、Agent2Agent协议、边缘计算插件和实时RAG等未来发展方向。; 适合人群:对AI编程感兴趣的开发者,尤其是希望快速落地AI产品的技术人员。; 使用场景及目标:①学习如何使用扣子COZE构建生产级智能体;②掌握智能体实例、自动化流程、扩展能力和知识库的使用方法;③通过实际案例理解如何实现会议纪要智能助手的功能,包括触发器设置、下载节点、LLM节点Prompt设计、Code节点处理和邮件节点配置。; 阅读建议:本文不仅提供了理论知识,还包含了详细的代码案例,建议读者结合实际业务需求进行实践,逐步掌握扣子COZE的各项功能,并关注其未来的发展趋势。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值