一 算法优化
解决两个质心距离太近导致局部最优解的情况
k-means算法小结
特别容易陷入到局部最优解
优点:
- 使用欧氏距离进行计算,原理简单(靠近中心点),实现容易
- 聚类效果中上(依赖K的选择),选择不当会造成局部最优解
- 空间复杂度o(N),时间复杂度o(IKN)
N为样本点个数,K为中心点个数,I为迭代次数
缺点:
- 对离群点,噪声敏感 (中心点易偏移)
- 很难发现大小差别很大的簇及进行增量计算
- 结果不一定是全局最优,只能保证局部最优(与K的个数及初值选取有关)
1 Canopy算法配合初始聚类
通过绘制同心圆,进行K值的筛选
需要确定同心圆的半径k1,k2
Canopy + KMeans
目的:使得初始点的选择更加合理
1.1 Canopy算法配合初始聚类实现流程
从左到右,从上到下,直到所有点都被包含进去结束
1.2 Canopy算法的优缺点
优点:
- Kmeans对噪声抗干扰较弱,通过Canopy对比,将较小的NumPoint的Cluster直接去掉有利于抗干扰。
- Canopy选择出来的每个Canopy的centerPoint作为K会更精确。
- 只是针对每个Canopy的内做Kmeans聚类,减少相似计算的数量。
缺点:
- 算法中 T1、T2的确定问题 ,依旧可能落入局部最优解
2 K-means++
通过距离平方进行求解,保证最后算到的质心到当前质心距离最远
选择质心为2,共16个样本点,上图分母为质心到其他各点的距离平方之和,现用15代替,可将15看做x,1为点2到点1的距离平方
选取以上最大值对应的点作为下一个质心
kmeans++目的,让选择的质心尽可能的分散
如下图中,如果第一个质心选择在圆心,那么最优可能选择到的下一个点在P(A)这个区域(根据颜色进行划分)
3 二分k-means
通过误差平方和设置阈值,然后进行划分
实现流程:
- 所有点作为一个簇
- 将该簇一分为二
- 选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。
- 以此进行下去,直到簇的数目等于用户给定的数目k为止。
设阈值为0.3,大于0.3继续划分,小于停止,如下图
隐含的一个原则
因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以需要对误差平方和最大的簇进行再一次划分,因为误差平方和越大,表示该簇聚类效果越不好,越有可能是多个簇被当成了一个簇,所以 首先需要对这个簇进行划分。
二分K均值算法可以加速K-means算法的执行速度,因为它的相似度计算少了并且不受初始化问题的影响,因为这里不存在随机点的选取,且每一步都保证了误差最小
4 k-medoids(k-中心聚类算法)
通过从当前点选择中心点(质心)进行判断
K-medoids和K-means是有区别的,不一样的地方在于中心点的选取
- K-means中,将中心点取为当前cluster中所有数据点的平均值,对异常点很敏感!
- K-medoids中,将从当前cluster 中选取到其他所有(当前cluster中的)点的距离之和最小的点作为中心点。
算法流程:
( 1 )总体n个样本点中任意选取k个点作为medoids
( 2 )按照与medoids最近的原则,将剩余的n-k个点分配到当前最佳的medoids代表的类中
( 3 )对于第i个类中除对应medoids点外的所有其他点,按顺序计算当其为新的medoids时,代价函数的值,遍历所有可能,选取代价函数最小时对应的点作为新的medoids
( 4 )重复2-3的过程,直到所有的medoids点不再发生变化或已达到设定的最大迭代次数
( 5 )产出最终确定的k个类
k-medoids对噪声鲁棒性好。
例:当一个cluster样本点只有少数几个,如(1,1)(1,2)(2,1)(1000,1000)。其中(1000,1000)是噪声。如果按照k-means质心会处在(251,251),这显然不是 想要的。这时k-medoids就可以避免这种情况,他会在(1,1)(1,2)(2,1)(1000,1000)中选出一个样本点使cluster的绝对误差最小,计算可知一定会在前三个点中选取,达到消除噪声的目的。
k-medoids只能对小样本起作用,样本大,速度就太慢了,当样本多的时候,少数几个噪音对k-means的质心影响也没有想象中的那么重,所以k-means的应用明显比k-medoids多。
5 Kernel k-means
将低维难划分的数据映射到高维空间中进行划分
kernel k-means实际上就是将难处理的数据集中的每个样本投射到高维空间的处理,然后再将处理后的数据使用普通的k-means算法思想进行聚类。
6 ISODATA
可以对K值大小进行改变
类别数目随着聚类过程而变化;
对类别数会进行合并,分裂
- “合并”:当聚类结果某一类中样本数太少,或两个类间的距离太近时
- “分裂”:当聚类结果中某一类的类内方差太大,将该类进行分裂
7 Mini Batch K-Means
从大量点中选取少量点进行计算,为防止偶然性,重复几次,选取最终的质心
适合大数据的聚类算法
大数据量是什么量级,通常当样本量大于1万做聚类时,就需要考虑选用Mini Batch K-Means算法。
Mini Batch KMeans使用了Mini Batch(分批处理)的方法对数据点之间的距离进行计算。
Mini Batch计算过程中不必使用所有的数据样本,而是从不同类别的样本中抽取一部分样本来代表各自类型进行计算。由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。
该算法的迭代步骤有两步:
(1)从数据集中随机抽取一些数据形成小批量,把他们分配给最近的质心
(2)更新质心
与Kmeans相比,数据的更新在每一个小的样本集上。对于每一个小批量,通过计算平均值得到更新质心,并把小批量里的数据分配给该质心,随着迭代次数的增加,这些质心的变化是逐渐减小的,直到质心稳定或者达到指定的迭代次数,停止计算。
8 总结
优化方法 | 思路 |
---|---|
Canopy+kmeans | Canopy粗聚类配合kmeans |
kmeans++ | 距离越远越容易成为新的质心 |
二分k-means | 拆除SSE最大的簇 |
k-medoids | 和kmeans选取中心点的方式不同 |
kernel kmeans | 映射到高维空间 |
ISODATA | 动态聚类 |
Mini-batch K-Means | 大数据集分批聚类 |
二 特征降维
1 降维
1.1 定义
降维是指在某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程
-
降低随机变量的个数
-
相关特征(correlated feature)
- 相对湿度与降雨量之间的相关
- 等等
正是因为在进行训练的时候, 都是使用特征进行学习。如果特征本身存在问题或者特征之间相关性较强,对于算法学习预测会影响较大
1.2 降维的两种方式
- 特征选择
- 主成分分析(可以理解一种特征提取的方式)
2 特征选择
2.1 定义
数据中包含冗余或无关变量(或称特征、属性、指标等),旨在从原有特征中找出主要特征。
2.2 方法
- Filter(过滤式):主要探究特征本身特点、特征与特征和目标值之间关联
- 方差选择法:低方差特征过滤
- 相关系数
- Embedded (嵌入式):算法自动选择特征(特征与目标值之间的关联)
- 决策树:信息熵、信息增益
- 正则化:L1、L2
- 深度学习:卷积等
2.3 低方差特征过滤
删除低方差的一些特征,前面讲过方差的意义。再结合方差的大小来考虑这个方式的角度。
- 特征方差小:某个特征大多样本的值比较相近
- 特征方差大:某个特征很多样本的值都有差别
2.3.1 API
sklearn.feature_selection.VarianceThreshold(threshold = 0.0)
删除所有低方差特征
Variance.fit_transform(X)
X:numpy array格式的数据[n_samples,n_features]
返回值:训练集差异低于threshold的特征将被删除。默认值是保留所有非零方差特征,即删除所有样本中具有相同值的特征。
2.3.2 数据计算
对某些股票的指标特征之间进行一个筛选,除去’index,‘date’,'return’列不考虑**(这些类型不匹配,也不是所需要指标)**
总特征如下
pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense
index,pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense,date,return
0,000001.XSHE,5.9572,1.1818,85252550922.0,0.8008,14.9403,1211444855670.0,2.01,20701401000.0,10882540000.0,2012-01-31,0.027657228229937388
1,000002.XSHE,7.0289,1.588,84113358168.0,1.6463,7.8656,300252061695.0,0.326,29308369223.2,23783476901.2,2012-01-31,0.08235182370820669
2,000008.XSHE,-262.7461,7.0003,517045520.0,-0.5678,-0.5943,770517752.56,-0.006,11679829.03,12030080.04,2012-01-31,0.09978900335112327
3,000060.XSHE,16.476,3.7146,19680455995.0,5.6036,14.617,28009159184.6,0.35,9189386877.65,7935542726.05,2012-01-31,0.12159482758620697
4,000069.XSHE,12.5878,2.5616,41727214853.0,2.8729,10.9097,81247380359.0,0.271,8951453490.28,7091397989.13,2012-01-31,-0.0026808154146886697
分析:
- 初始化VarianceThreshold,指定阀值方差
- 调用fit_transform
def variance_demo():