- 博客(5)
- 收藏
- 关注
原创 纯干货笔记(五)|周志华《机器学习》期末知识点简要总结
然后在第 11-23 行, AGNES 不断合并距离最近的聚类簇,井对合并得到的聚类簇的距离矩阵进行更新;它先将数据集中的每个样本看作一个初始聚类簇,然后在算法运行的每一步中找出距离最近的两个聚类簇进行合并,并对合并得到的聚类簇的距离矩阵进行更新。通常情况下,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇来获得最终的聚类结果。,首先给出初始化分,通过迭代改变样本和簇的隶属关系,使得每次改进之和的划分方案都较前一次好。先将每个对象作为一个簇,然后不断合并为越来越大的簇。
2024-12-07 15:06:59
2001
原创 纯干货笔记(四)|周志华《机器学习》期末知识点简要总结
对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个维特征空间中的线性分类问题,在高维特征空间中学习线性支持向量机。在线性支持向量机学习的对偶问题中,用核函数 K(x,z) 替代内积,求解得到的就是非线性支持向量机。主要介绍了SVM的概念和算法原理,同时针对非线性可分的问题提出的核函数的所用。意味着存在一个从输入空间到特征空间的映射 ϕ(x) ,对任意输入空间中的 x,z ,有。间隔越大,对未知样本的泛化能力越强,其分类的可靠性和稳定性也就越高。,决定了超平面的位置和间隔的大小。
2024-12-03 16:49:32
371
原创 纯干货笔记(三)|周志华《机器学习》期末知识点简要总结
是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界体所作出的交互反应,我们在机器学习中谈论神经网络时指是。且在迭代的过程中,接受次优解的概率要逐渐降低,最终收敛到一个较好的解。在更高维的空间中将原本不可分的数据变得可分,具有更强的学习能力和函数逼近能力,理论上可以逼近任何连续函数.信号从输入层传导到隐藏层,再传导到输出层,每一层的神经元只与下一层的神经元相连,不进行反馈。是一种理想的激活函数,将输入值映射为输出值“0”或“1”,其中1是兴奋,0是抑制。
2024-12-02 11:40:03
1652
原创 纯干货笔记(二)|周志华《机器学习》期末知识点简要总结
在不进行处理的情况下,模型可能会倾向于将大多数样本预测为反类,以获得较高的准确率。但使用再缩放方法,假设设置正类权重为 9,反类权重为 1,那么在训练过程中,模型对于正类样本的错误分类会给予 9 倍的惩罚,从而促使模型更加努力地去学习正类样本的特征,调整决策边界,使其更准确地对正类样本进行分类,提高对正类样本的召回率,进而改善模型在类别不平衡数据上的整体性能。通过再缩放,相当于对不同类别的样本在特征空间中的 “重要性” 进行了重新调整,使得决策边界能够更合理地划分不同类别的样本,减少对少数类样本的误判。
2024-12-01 13:06:51
724
原创 纯干货笔记(一)|周志华《机器学习》期末知识点简要总结
偏差方差窘境(Bias-Variance Dilemma)是机器学习中一个核心的概念,
2024-11-30 12:52:19
1552
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人