手写数字识别——数据降维(PCA)技术在图像识别中的应用

本文介绍了一种利用支持向量机(SVM)和主成分分析(PCA)进行手写数字识别的方法。首先通过PCA对数据进行了降维处理,然后采用SVM进行模型训练,并最终对测试集进行预测。通过对前100个测试样本的预测结果展示,直观地呈现了该方法的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.导入模块

import numpy as np
import pandas as pd
from pandas import Series,DataFrame
import matplotlib.pyplot as plt
%matplotlib inline

#向量机
from sklearn.svm import SVC

#主成分分析(principal components analysis),主要用于数据降维的
from sklearn.decomposition import PCA

#用于切割训练数据和样本数据
from sklearn.model_selection import train_test_split

2.生成训练数据和测试数据

#本地数据
data = pd.read_csv('../data/digits.csv')

train = data.iloc[:,1:]
target = data['label']

#训练数据和样本数据切割
X_train,x_test,y_train,y_true = train_test_split(train,target,test_size=0.2)

这里写图片描述

3.对数据进行降维处理

  • PCA 用于数据降维,减少运算时间,避免过拟合
  • n_components参数设置需要保留特征的数量,如果是小数,则表示保留特征的比例
# 3.1.创建pca对象
pca = PCA(n_components=150,whiten=True)

#3.2.使用pca训练数据
pca.fit(X_train,y_train)

#3.3.对数据进行降维处理
X_train_pca = pca.transform(X_train)
x_test_pca = pca.transform(x_test)

结果将由原来的784个特征变为了150个特征

4.创建学习模型

svc = SVC(kernel = 'rbf')

5.使用降维后的数据进行模型训练

svc.fit(X_train_pca,y_train)

6.预测结果

y_pre_svc = svc.predict(x_test_pca)

7.展示结果

#展示前100的测试样本数据
samples = x_test.iloc[:100]
y_pre = y_pre_svc[:100]

plt.figure(figsize=(12,18))
for i in range(100):
    plt.subplot(10,10,i+1)
    plt.imshow(samples.iloc[i].reshape(28,28),cmap='gray')
    title = 'True:'+str(y_true.iloc[i])+'\nSVC:'+str(y_pre[i])
    plt.title(title)
    plt.axis('off')

这里写图片描述

8.模型执行降维后数据的评分

svc.score(x_test_pca[:100],y_true[:100])
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值