Sodas(填坑中....)
学习者,有错误敬请指正!
展开
-
周志华机器学习西瓜书 第九章 聚类-学习笔记
还要其他的有标记样本使用聚类的算法,除了这种指定正类负类的。其中𝑑𝑖𝑠𝑡(𝑥𝑖,𝑥𝑗)用于计算两个样本之间的距离,avg(C)是指簇内样本的平均距离,diam(C)是簇内样本的最大距离,𝑑𝑚𝑖𝑛(𝐶𝑖,𝐶𝑗)是簇间样本的最小距离,𝑑𝑐𝑒𝑛(𝐶𝑖,𝐶𝑗)是簇与簇之间中心点的距离。聚类是无监督学习中非常典型的任务,聚类的目的是将数据样本划分为若干个通常不相交的子集,每一个子集成为"簇-cluster",其即可以作为一个单独过程,用于找寻数据内在的分布结构,也可作为原创 2025-03-15 17:05:50 · 263 阅读 · 0 评论 -
周志华机器学习西瓜书 第八章 集成学习-学习笔记(超详细)
举个例子:假如集成学习器有9个个体,求的是集成学习错误率,即预测失败的概率。即在训练过程中每一轮中,根据样本分布为每个训练样本重新赋予一个权重,对无法接收带权样本的基学习算法,则可通过“重采样法”来处理,即在每一轮学习中,根据样本分布对训练集重新进行采样,再用重采样而得的样本集对基学习器进行训练。随机森林的训练效率常优于Bagging,因此在个体决策树的构建过程中,Bagging使用的是“确定型”决策树,在选择划分属性时要对结点所有的属性进行考察,而随机森林使用的“随机型”决策树则只需考察一个属性子集。原创 2025-03-01 18:48:56 · 237 阅读 · 0 评论 -
周志华机器学习西瓜书 第七章 贝叶斯分类器-学习笔记(超详细)
缺点也是显然的:如果数据量较大,拉普拉斯修正可能会引入过多的平滑,导致概率估计不够准确、对于某些特定问题,可能需要调整平滑参数(如加的常数不一定是1)、而且拉普拉斯修正实际上是假定了属性与类别的均匀分布,这是额外引入的偏差,因为本身可能本身不是均匀的,所以这个要注意,实际问题是否是均匀的,若是不均匀可以调整所加的常数,调整偏差。是主观的,只是随着新证据的发现去不断的更新对概率的"信念值"。",即频率 主义认为概率是"事件",在大量重复性实验中所发生的频率,就会逼近真实的概率,涉及到极限的概念,是客观的。原创 2025-02-26 21:56:42 · 968 阅读 · 0 评论 -
周志华机器学习西瓜书 第六章 支持向量机-学习笔记(超详细!)
支持向量机原创 2025-02-18 23:37:34 · 1394 阅读 · 0 评论 -
周志华机器学习西瓜书 第五章 神经网络-学习笔记(超详细)
在机器学习中,神经网络一般指的是"神经网络学习",是机器学习与神经网络两个学科的交叉部分。所谓神经网络,目前用的最广泛的一个定义是"神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体做出交互反应"。 神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。原创 2025-02-09 20:21:53 · 1884 阅读 · 0 评论 -
周志华机器学习西瓜书 第四章 决策树 学习笔记(含例题,超详细)
本章节讲解了决策树的相关内容。借鉴了很多大佬的讲解和讲述。基本上可以说是最全面的《西瓜书》笔记!原创 2025-02-01 15:15:43 · 463 阅读 · 0 评论 -
周志华机器学习西瓜书第三章 线性模型学习笔记(超详细)
本章笔记非常详细适合基础薄弱者,整理了很多大佬的笔记和自己的理解,希望读者认真研究仔细推敲。原创 2025-01-22 13:56:36 · 815 阅读 · 0 评论 -
周志华机器学习西瓜书第二章 模型评估与选择学习笔记
西瓜书第二章,加入了很多自己的理解。原创 2025-01-17 18:40:35 · 1011 阅读 · 0 评论 -
周志华机器学习西瓜书第一章绪论学习笔记
学习西瓜书,并且会持续更新。采纳了很多大佬的笔记,欢迎大家评论区指出交流原创 2025-01-17 18:30:38 · 891 阅读 · 0 评论