机器学习【聚类算法2】

一 算法优化

解决两个质心距离太近导致局部最优解的情况

k-means算法小结

特别容易陷入到局部最优解

优点:

  • 使用欧氏距离进行计算,原理简单(靠近中心点),实现容易
  • 聚类效果中上(依赖K的选择),选择不当会造成局部最优解
  • 空间复杂度o(N),时间复杂度o(IKN)

N为样本点个数,K为中心点个数,I为迭代次数

缺点:

  • 对离群点,噪声敏感 (中心点易偏移)
  • 很难发现大小差别很大的簇及进行增量计算
  • 结果不一定是全局最优,只能保证局部最优(与K的个数及初值选取有关)

1 Canopy算法配合初始聚类

通过绘制同心圆,进行K值的筛选

需要确定同心圆的半径k1,k2

Canopy + KMeans

目的:使得初始点的选择更加合理

1.1 Canopy算法配合初始聚类实现流程

从左到右,从上到下,直到所有点都被包含进去结束
在这里插入图片描述

1.2 Canopy算法的优缺点

优点:

  • Kmeans对噪声抗干扰较弱,通过Canopy对比,将较小的NumPoint的Cluster直接去掉有利于抗干扰。
  • Canopy选择出来的每个Canopy的centerPoint作为K会更精确。
  • 只是针对每个Canopy的内做Kmeans聚类,减少相似计算的数量。

缺点:

  • 算法中 T1、T2的确定问题 ,依旧可能落入局部最优解

2 K-means++

通过距离平方进行求解,保证最后算到的质心到当前质心距离最远

在这里插入图片描述

选择质心为2,共16个样本点,上图分母为质心到其他各点的距离平方之和,现用15代替,可将15看做x,1为点2到点1的距离平方

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

选取以上最大值对应的点作为下一个质心

kmeans++目的,让选择的质心尽可能的分散

如下图中,如果第一个质心选择在圆心,那么最优可能选择到的下一个点在P(A)这个区域(根据颜色进行划分)

在这里插入图片描述

3 二分k-means

通过误差平方和设置阈值,然后进行划分

实现流程:

  • 所有点作为一个簇
  • 将该簇一分为二
  • 选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。
  • 以此进行下去,直到簇的数目等于用户给定的数目k为止。

设阈值为0.3,大于0.3继续划分,小于停止,如下图

在这里插入图片描述

隐含的一个原则

因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以需要对误差平方和最大的簇进行再一次划分,因为误差平方和越大,表示该簇聚类效果越不好,越有可能是多个簇被当成了一个簇,所以 首先需要对这个簇进行划分。

二分K均值算法可以加速K-means算法的执行速度,因为它的相似度计算少了并且不受初始化问题的影响,因为这里不存在随机点的选取,且每一步都保证了误差最小

4 k-medoids(k-中心聚类算法)

通过从当前点选择中心点(质心)进行判断

K-medoids和K-means是有区别的,不一样的地方在于中心点的选取

  • K-means中,将中心点取为当前cluster中所有数据点的平均值,对异常点很敏感!
  • K-medoids中,将从当前cluster 中选取到其他所有(当前cluster中的)点的距离之和最小的点作为中心点。

在这里插入图片描述

算法流程:

( 1 )总体n个样本点中任意选取k个点作为medoids

( 2 )按照与medoids最近的原则,将剩余的n-k个点分配到当前最佳的medoids代表的类中

( 3 )对于第i个类中除对应medoids点外的所有其他点,按顺序计算当其为新的medoids时,代价函数的值,遍历所有可能,选取代价函数最小时对应的点作为新的medoids

( 4 )重复2-3的过程,直到所有的medoids点不再发生变化或已达到设定的最大迭代次数

( 5 )产出最终确定的k个类

k-medoids对噪声鲁棒性好。

例:当一个cluster样本点只有少数几个,如(1,1)(1,2)(2,1)(1000,1000)。其中(1000,1000)是噪声。如果按照k-means质心会处在(251,251),这显然不是 想要的。这时k-medoids就可以避免这种情况,他会在(1,1)(1,2)(2,1)(1000,1000)中选出一个样本点使cluster的绝对误差最小,计算可知一定会在前三个点中选取,达到消除噪声的目的。

k-medoids只能对小样本起作用,样本大,速度就太慢了,当样本多的时候,少数几个噪音对k-means的质心影响也没有想象中的那么重,所以k-means的应用明显比k-medoids多。

5 Kernel k-means

将低维难划分的数据映射到高维空间中进行划分

kernel k-means实际上就是将难处理的数据集中的每个样本投射到高维空间的处理,然后再将处理后的数据使用普通的k-means算法思想进行聚类。

在这里插入图片描述

6 ISODATA

可以对K值大小进行改变

类别数目随着聚类过程而变化;

对类别数会进行合并,分裂

  • “合并”:当聚类结果某一类中样本数太少,或两个类间的距离太近时
  • “分裂”:当聚类结果中某一类的类内方差太大,将该类进行分裂

7 Mini Batch K-Means

从大量点中选取少量点进行计算,为防止偶然性,重复几次,选取最终的质心

适合大数据的聚类算法

大数据量是什么量级,通常当样本量大于1万做聚类时,就需要考虑选用Mini Batch K-Means算法。

Mini Batch KMeans使用了Mini Batch(分批处理)的方法对数据点之间的距离进行计算。

Mini Batch计算过程中不必使用所有的数据样本,而是从不同类别的样本中抽取一部分样本来代表各自类型进行计算。由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。

该算法的迭代步骤有两步:

(1)从数据集中随机抽取一些数据形成小批量,把他们分配给最近的质心

(2)更新质心

与Kmeans相比,数据的更新在每一个小的样本集上。对于每一个小批量,通过计算平均值得到更新质心,并把小批量里的数据分配给该质心,随着迭代次数的增加,这些质心的变化是逐渐减小的,直到质心稳定或者达到指定的迭代次数,停止计算。

8 总结

优化方法 思路
Canopy+kmeans Canopy粗聚类配合kmeans
kmeans++ 距离越远越容易成为新的质心
二分k-means 拆除SSE最大的簇
k-medoids 和kmeans选取中心点的方式不同
kernel kmeans 映射到高维空间
ISODATA 动态聚类
Mini-batch K-Means 大数据集分批聚类

二 特征降维

1 降维

1.1 定义

降维是指在某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程

  • 降低随机变量的个数
    在这里插入图片描述

  • 相关特征(correlated feature)

    • 相对湿度与降雨量之间的相关
    • 等等

正是因为在进行训练的时候, 都是使用特征进行学习。如果特征本身存在问题或者特征之间相关性较强,对于算法学习预测会影响较大

1.2 降维的两种方式

  • 特征选择
  • 主成分分析(可以理解一种特征提取的方式)

2 特征选择

2.1 定义

数据中包含冗余或无关变量(或称特征、属性、指标等),旨在从原有特征中找出主要特征
在这里插入图片描述

2.2 方法

  • Filter(过滤式):主要探究特征本身特点、特征与特征和目标值之间关联
    • 方差选择法:低方差特征过滤
    • 相关系数
  • Embedded (嵌入式):算法自动选择特征(特征与目标值之间的关联)
    • 决策树:信息熵、信息增益
    • 正则化:L1、L2
    • 深度学习:卷积等

2.3 低方差特征过滤

删除低方差的一些特征,前面讲过方差的意义。再结合方差的大小来考虑这个方式的角度。

  • 特征方差小:某个特征大多样本的值比较相近
  • 特征方差大:某个特征很多样本的值都有差别
2.3.1 API
sklearn.feature_selection.VarianceThreshold(threshold = 0.0)
	删除所有低方差特征
	Variance.fit_transform(X)
		X:numpy array格式的数据[n_samples,n_features]
		返回值:训练集差异低于threshold的特征将被删除。默认值是保留所有非零方差特征,即删除所有样本中具有相同值的特征。
2.3.2 数据计算

某些股票的指标特征之间进行一个筛选,除去’index,‘date’,'return’列不考虑**(这些类型不匹配,也不是所需要指标)**

总特征如下

pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense
index,pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense,date,return
0,000001.XSHE,5.9572,1.1818,85252550922.0,0.8008,14.9403,1211444855670.0,2.01,20701401000.0,10882540000.0,2012-01-31,0.027657228229937388
1,000002.XSHE,7.0289,1.588,84113358168.0,1.6463,7.8656,300252061695.0,0.326,29308369223.2,23783476901.2,2012-01-31,0.08235182370820669
2,000008.XSHE,-262.7461,7.0003,517045520.0,-0.5678,-0.5943,770517752.56,-0.006,11679829.03,12030080.04,2012-01-31,0.09978900335112327
3,000060.XSHE,16.476,3.7146,19680455995.0,5.6036,14.617,28009159184.6,0.35,9189386877.65,7935542726.05,2012-01-31,0.12159482758620697
4,000069.XSHE,12.5878,2.5616,41727214853.0,2.8729,10.9097,81247380359.0,0.271,8951453490.28,7091397989.13,2012-01-31,-0.0026808154146886697

分析:

  • 初始化VarianceThreshold,指定阀值方差
  • 调用fit_transform
def variance_demo():
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

OneTenTwo76

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值