吴裕雄 python 机器学习——主成份分析PCA降维

本文详细介绍了PCA(主成分分析)降维技术的基本原理和应用,通过使用scikit-learn库对Iris数据集进行降维处理,并展示了如何将高维数据映射到二维空间,以便更直观地理解数据的分布特征。
# -*- coding: utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt

from sklearn import datasets,decomposition

def load_data():
    '''
    加载用于降维的数据
    '''
    # 使用 scikit-learn 自带的 iris 数据集
    iris=datasets.load_iris()
    return iris.data,iris.target

#PCA降维
def test_PCA(*data):
    X,y=data
    # 使用默认的 n_components
    pca=decomposition.PCA(n_components=None)
    pca.fit(X)
    print('explained variance ratio : %s'% str(pca.explained_variance_ratio_))

# 产生用于降维的数据集
X,y=load_data()
# 调用 test_PCA
test_PCA(X,y)

def plot_PCA(*data):
    '''
    绘制经过 PCA 降维到二维之后的样本点
    '''
    X,y=data
    # 目标维度为2维
    pca=decomposition.PCA(n_components=2)
    pca.fit(X)
    # 原始数据集转换到二维
    X_r=pca.transform(X) 
    ###### 绘制二维数据 ########
    fig=plt.figure()
    ax=fig.add_subplot(1,1,1)
    # 颜色集合,不同标记的样本染不同的颜色
    colors=((1,0,0),(0,1,0),(0,0,1),(0.5,0.5,0),(0,0.5,0.5),(0.5,0,0.5),(0.4,0.6,0),(0.6,0.4,0),(0,0.6,0.4),(0.5,0.3,0.2))
    for label ,color in zip( np.unique(y),colors):
        position=y==label
        ax.scatter(X_r[position,0],X_r[position,1],label="target= %d"%label,color=color)
    ax.set_xlabel("X[0]")
    ax.set_ylabel("Y[0]")
    ax.legend(loc="best")
    ax.set_title("PCA")
    plt.show()
    
# 调用 plot_PCA
plot_PCA(X,y)

 

转载于:https://www.cnblogs.com/tszr/p/10795561.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值