k--Means

本文详细介绍了K均值聚类算法的基本原理、实现过程以及相关函数的作用,包括数据处理、欧氏距离计算、随机质心生成、聚类迭代更新等关键步骤。通过实际代码演示,帮助读者掌握K均值算法的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前面我们大致介绍了一些回归、预测算法,它们都属于监督学习算法的范畴,今天我们将接触到一种无监督学习的算法k--Means算法。这个算法很好理解。k就代表要要分的多少个类,每个类都聚到一堆,怎么算同一类呢?既然同一类都到一堆了,肯定是根据距离来进行计算的。首先我们需要随机选取k个点,然后算出数据集中各个点距离哪一个点最近就属于那一类。一次遍历之后需要重新确定k个点的位置,再次遍历。直到符合最终条件为止。接下来就看一下这个算法的实现过程:数据下载  (提取码:7023)

from numpy import *

def loadDataSet(fileName):     
    dataMat = []             
    fr = open(fileName)
    for line in fr.readlines():
        curLine = line.strip().split('\t')
        fltLine = map(float,curLine)
        dataMat.append(fltLine)
    return dataMat

def distEclud(vecA, vecB):
    return sqrt(sum(power(vecA - vecB, 2))) 
def randCent(dataSet, k):
    n = shape(dataSet)[1]
    centroids = mat(zeros((k,n)))
    for j in range(n):
        minJ = min(dataSet[:,j]) 
        rangeJ = float(max(dataSet[:,j]) - minJ)
        centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1))
    return centroids
这里的第一个函数还是数据处理不再解释,第二个函数计算两个向量的欧氏距离。第三个函数用于给数据集构建一个包含k个随机质心的集合。该函数首先接受一个数据集和需要聚类的个数,然后求出数据集中每组数据中有多少属性在for循环中需要计算出每个属性列中的最大值和最小值,以及他们的差,这样做是为了,在随机选取质心的时候能够保证选取的质心在数据集的边缘内部。最后返回生成的质心矩阵。

def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
    m = shape(dataSet)[0]
    clusterAssment = mat(zeros((m,2)))
                                     
    centroids = createCent(dataSet, k)
    clusterChanged = True
    while clusterChanged:
        clusterChanged = False
        for i in range(m):
            minDist = inf; minIndex = -1
            for j in range(k):
                distJI = distMeas(centroids[j,:],dataSet[i,:])
                if distJI < minDist:
                    minDist = distJI; minIndex = j
            if clusterAssment[i,0] != minIndex: clusterChanged = True
            clusterAssment[i,:] = minIndex,minDist**2
        print centroids
        for cent in range(k):
            ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]
            centroids[cent,:] = mean(ptsInClust, axis=0)
    return centroids, clusterAssment
上面的代码用来进行K--Mean算法实现,首先算出数据集中有多少组数据,然后建立一个矩阵用来存放训练数据被分配到的位置以及到质心的距离。接下来就是随机生成k个质心,clusterChanged是一个结束分配的标志。接下来进入循环第一个for循环遍历所有的数据minDist表示到质心的距离,minIndex表示索引值,接下来的循环计算点到各个质心的距离,并将它归到距离质心最近的那一类。if语句用于判断所有数据是不是在上次分完之后不再改变,最后一个for循环用于改变质心的距离,这里用属于这一类的所有数据的平均值来决定新的质心的位置。直到所有质心的位置不再改变。组后返回聚类的结果。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值