1.目标
鸢尾花数据集(Irisdataset)是机器学习中常用的经典数据集之一,包含了 150 个样本,每个样本有4个特征(萼片长度、萼片宽度、花瓣长度、花瓣宽度) 和一个类别标签(Iris-setosa,Iris-versicolor, Iris-virginica)。降维技术可以帮助我 们减少数据的维度,从而简化模型、提高计算效率,并有助于可视化高维数据。
1. 使用MDS(多维缩放)和PCA(主成分分析)对鸢尾花数据集进行降维。
2. 比较两种方法的结果,并分析它们的优缺点。
2.实验过程
1,本次实验使用程序PyCharm Community Edition 2024.1.4进行,Python版本为3.12。
2,使用以下地址的鸢尾花数据集:
UCI Machine Learning Repository
3,首先查阅使用Python进行机器学习常用的库,最终选择了scikit-learn。然后在网上查找scikit-learn的相关使用教程,参考部分类似实例。
4,最终完成代码如下所示。
MDS(多维缩放)
import matplotlib.pyplot as plt
from sklearn.manifold import MDS
import numpy as np
from ucimlrepo import fetch_ucirepo
# fetch dataset
iris = fetch_ucirepo(id=53)
# data (as pandas dataframes)
X = iris.data.features
y = iris.data.targets
mds = MDS(n_components=2)
X_p = mds.fit_transform(X)
plt.figure()
colors = ('red', 'blue', 'green')
for color, label in zip(colors, np.unique(y)):
position = y['class'] == label
plt.scatter(X_p[position, 0], X_p[position, 1], color=color, label=label)
plt.xlabel('X[0]')
plt.ylabel('X[1]')
plt.title('MDS of Iris')
plt.legend()
plt.show()
PCA(主成分分析)
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
import numpy as np
from ucimlrepo import fetch_ucirepo
# fetch dataset
iris = fetch_ucirepo(id=53)
# data (as pandas dataframes)
X = iris.data.features
y = iris.data.targets
pca = PCA(n_components=2)
X_p = pca.fit(X).transform(X)
plt.figure()
colors = ('red', 'blue', 'green')
for color, label in zip(colors, np.unique(y)):
position = y['class'] == label
plt.scatter(X_p[position, 0], X_p[position, 1], color=color, label=label)
plt.xlabel('X[0]')
plt.ylabel('X[1]')
plt.title('PCA of Iris')
plt.legend()
plt.show()
5,实验过程中遇到的问题:刚开始写好代码运行时一直报错,多次调试后发现与从库中直接导出的鸢尾花数据集不同,在本次实验下载的数据集中类型标签是以数据结构DataFrame的形式导入,在画图时需要的操作与网上实例不同。在查阅使用DataFrame进行布尔索引的相关资料后通过更改索引方式解决了问题。
3.实验结果
MDS降维后的数据散点图:
MDS降维后生成的数据散点分布情况主要是以下两类。
PCA降维后的数据散点图:
4.结果比较
-
相似性:MDS的其中一类散点分布与PCA的散点分布总体上类似,呈长条状分布;MDS的两类分布都可看出红色点明显区分于蓝色和绿色点,而蓝色点和绿色点的分布边缘则紧密接触,PCA的散点分布也是这样;PCA和MDS的散点分布都可看出红色点的平均密度大,且三类点的分布中心相对位置稳定。
-
差异性:MDS生成的散点图分布不稳定,变化大,PCA则相反;MDS其中一类散点分布三种颜色点的分布密度都明显大于PCA。
-
MDS降维优点:可适用于非线性数据;保留了数据在原始空间的相对关系,可视化效果比较好。 缺点:各个维度的地位相同,无法区分不同维度的重要性;当数据量较大时,运算时间可能较长。
-
PCA降维优点:PCA是一种线性变换方法,易于理解和实现, 数学基础清晰;计算效率高,在本次实验中运算速度快于MDS。缺点:PCA通过最大化方差来选择主成分,有时可能会忽略一些虽然方差较小但对分类或聚类有用的特征;只适用于线性数据。