手写Kmeans

本文详细介绍了K-means聚类算法的实现过程,包括数据预处理、距离计算、质心初始化和更新,以及算法的优缺点。特别讨论了如何改进K-means,如K-means++和isodata算法,以应对K值选择、局部最优解和数据分布不均匀等问题。并通过实际案例验证算法效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

K-means聚类算法

1、聚类思想

所谓聚类算法是指将一堆没有标签的数据自动划分成几类的方法,属于无监督学习方法,这个方法要保证同一类的数据有相似的特征

2、导入所需的包

import numpy as np
import pandas as pd
import matplotlib as mpl
import matplotlib.pyplot as plt
%matplotlib inline

iris = pd.read_csv("iris.csv",header = None)
iris.head()

3、K-均值算法的python实现

根据K-均值算法的工作流程,我们写出伪代码:

创建k个点为初始质点(通常随机选择)
当任意一个点的簇分配结果发生改变时:
对数据集中的每个点:
对每个质心:
计算质心与数据点之间的距离
将数据点分配到距其最近的簇
对每个簇,计算簇中所有点的均值并将均值作为新的质心
直到簇不再发生改变或者达到最大迭代次数(自己设定)

伪代码中提到的“最近”在这里我们使用欧氏距离

3.1、构建一个计算距离的函数

统一量纲

如果数据中X整体都比较小,比如都是1到10之间的数,Y很大,比如都是1000以上的数,那么,在计算距离的时候Y起到的作用就比X大很多,X对于距离的影响几乎可以忽略,这也有问题。因此,如果K-Means聚类中选择欧几里德距离计算距离,数据集又出现了上面所述的情况,就一定要进行数据的标准化(normalization),即将数据按比例缩放,使之落入一个小的特定区间。(下面函数没有开平方以减少计算量)

def distEclud(arrA,arrB):
    d = arrA - arrB
    dist = np.sum(np.power(d,2),axis=1)
    return dist

3.2、编写自动生成随机质心的函数

在定义随机质心生成函数时,首先需要计算每列数值的范围,然后在该范围中随机生成指定个数的质心。
此处我们使用numpy.random.uniform()函数生成随机质心

"""
函数功能:随机生成k个质心
参数说明:
        dataSet:包含标签的数据集
        k:簇的个数
    返回:
        data_cent:k个质心
"""
def randCent(dataSet,k):
    n = dataSet.shape[1]
    data_min = dataSet.iloc[:,:n-1].min()
    data_max = dataSet.iloc[:,:n-1].max()
    data_cent = np.random.uniform(data_min,data_max,(k,n-1))
    return data_cent

函数用法(上面n-1不包含标签)

3.3、编写K-Means聚类函数

在执行k-means的时候,需要不断的迭代质心,因此我们需要两个可迭代容器来完成该目标:

第一个容器用于存放和更新质心,该容器可考虑使用list来执行,list不仅可迭代对象,同时list内不同元素索引位置也可
用于标记和区分各质心,即各簇的编号。

第二个容器泽需要记录、保存和更新各点到质心之间的距离,并能够方便对其进行比较,该容器可以使用一个三列的数组来
执行,

由于kmeans算法是一种非常常用的聚类算法,因此在MATLAB中也提供了kmeans函数来进行聚类操作。但是,如果想要手写kmeans算法,可以按照以下步骤进行: 1. 初始化k个聚类中心,可以随机选择数据集中的k个点作为聚类中心。 2. 对于每个数据点,计算其与k个聚类中心的距离,并将其划分到距离最近的聚类中心所属的类别。 3. 对于每个聚类,重新计算其聚类中心,即取该聚类所有数据点的平均值作为新的聚类中心。 4. 重复步骤2和3,直到聚类中心不再变化或达到最大迭代次数。 以下是MATLAB代码示例: ```matlab function [labels, centers] = kmeans(X, k) % X为数据集,k为聚类个数 [n, m] = size(X); % 初始化聚类中心 centers = X(randperm(n, k), :); labels = zeros(n, 1); max_iter = 100; for iter = 1:max_iter % 将每个数据点划分到距离最近的聚类中心所属的类别 for i = 1:n dist = sum((X(i, :) - centers).^2, 2); [~, labels(i)] = min(dist); end % 重新计算聚类中心 for j = 1:k idx = find(labels == j); centers(j, :) = mean(X(idx, :), 1); end % 如果聚类中心不再变化,停止迭代 if iter > 1 && all(centers == old_centers, 'all') break; end old_centers = centers; end end ``` 该函数的输入为数据集X和聚类个数k,输出为每个数据点所属的类别和最终的聚类中心。在函数中,我们先随机选择k个数据点作为聚类中心,然后进行最大迭代次数次的迭代,每次迭代都先将每个数据点划分到距离最近的聚类中心所属的类别,再重新计算每个聚类的中心。如果聚类中心不再变化,就停止迭代。注意,由于MATLAB中的函数可能会影响效率,因此我们使用了循环来实现kmeans算法的过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值