机器学习课程笔记(第八周-1)K-means

本文介绍了非监督学习中的K-means算法,包括其基本步骤、输入参数、优化目标和随机初始化方法。讨论了如何选择合适的聚类数目,如肘部法则,并指出K-means在寻找最优解时可能存在的局部最优问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

非监督学习unsupervised learning

聚类Clustering

K-means算法
步骤1:簇分配:遍历所有样本,把与聚类中心接近的点划为一类;
步骤2:移动聚类中心:把聚类中心移动到和它同类的数据集的均值处。
迭代以上两步骤,直到聚类中心和点集不再变化。

两个输入:K(想聚类处的簇的个数);只有x没有标签y的训练集。
x(i)是n维向量。
算法表示:

如果存在一个没有点分配给它的聚类中心,则直接移除那个聚类中心。

应对没有很好分开的簇,也可以用K-means

优化目标函数Optimization Objective
目的:(1)帮助我们调试学习算法,确保K均值算法是在正确运行中。
(2)我们运用这个来帮助K均值找到更好的簇 ,并且避免局部最优解 。

目标:找到最小化代价函数J的c和μ。这个代价函数往往也叫做 失真代价函数distortion cost function
按照算法,首先以c为变量,minimizeJ,然后在移动聚类中心时,以μ为变量,minimizeJ
K-means算法的核心:对代价函数J的优化过程。

随机初始化Random Initialization
如何初始化K均值聚类方法,如何避开局部最优来构建K均值聚类方法。
随机初始化方法:
随机选取K个训练样本,K<m,设定μ1,...,μk来等于这k个训练样本

选择聚类个数K
1.因为是非监督学习,没有标签,所以并没有一个准确的答案。一般通过看可视化的图来手工选择聚类的数目。
2.常见的选择聚类数目的方法:肘部法则Elbow Method
作出K与J的曲线,在某一点之前畸变值快速下降,该点之后下降缓慢,则找到了该点为肘点。但很多图肘点位置并不明确。

3. 看不同的聚类数量能为后续下游的目的提供多好的结果。即根据你要做的事情,要达到的目标来决定。比如T恤尺寸。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值