自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 周志华《机器学习》自学知识点笔记(第八章)

集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统(multi-classifer system)、基于委员会的学习(committee-based learning)等。图8-1显示出集成学习的一般结构:先产生一组“个体学习器”(individual learner),再用某种策略将它们结合起来。图8-1 集成学习示意图。

2024-11-20 23:49:26 699

原创 周志华《机器学习》自学知识点笔记(第六章)

给定训练样本集,分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开。直观上看,应该去找位于两类训练样本“正中间”的划分超平面,因为该划分超平面对训练样本局部扰动的“容忍”性最好。换言之,这个划分超平面所产生的分类结果是最鲁棒的,对未见示例的泛化能力最强。在样本空间中,划分超平面可通过如下线性方程来描述:其中为法向量,决定了超平面的方向;b为位移项,决定了超平面与远点之间的距离。显然,划分超平面可被法向量w和位移b确定,下面我们将其记为(w,b)。

2024-11-17 01:51:35 803

原创 周志华《机器学习》自学知识点笔记(第四章)

决策树(decision tree)是一类常见的机器学习方法。顾名思义,决策树是基于树结构来进行决策的。一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个数形测试;每个结点包含的样本集合根据属性测试的结果被划分到子结点中;根结点包含样本全集。从根结点到每个叶结点的路径对应了一个判定测试序列。决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树,其基本流程遵循简单且直观的“分而治之”(divide-and-conquer)策略。

2024-11-14 23:54:34 788

原创 周志华《机器学习》自学知识点笔记(第三章)

给定由d个属性描述的示例,其中是在第个属性上的取值,线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即一般用向量形式写成其中和学得之后,模型就得以确定。线性模型形式简单、易于建模,许多功能更为强大的非线性模型(nonlinear model)可在线性模型的基础上通过引入层级结构或高维映射而得。此外,由于。

2024-10-31 22:25:21 439

原创 周志华《机器学习》自学知识点笔记(第一、二章)

非形式化定义:将人的“经验”作为计算机的“数据”,让计算机来学习这些经验数据,从而得到一个算法模型,同时在面对新的情况时,计算机能够做出准确有效的判断。形式化定义:假设T为计算机程序希望实现的任务类,P为计算机程序在某任务类T上的性能,E为经验,即历史的数据集。若该计算机程序通过利用经验E在任务T上获得了性能P的改善,则称该程序对E进行了学习。

2024-10-23 23:41:50 585

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除