OpenCV——KNN分类算法 <摘>

本文介绍了KNN近邻分类法的基本原理及其应用。KNN是一种基于样本的学习方法,通过计算待分类点与已知类别样本的距离,并选取最近的K个样本进行投票来确定待分类点的类别。文章详细阐述了KNN算法的步骤及训练过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转自:http://www.cnblogs.com/farewell-farewell/p/5910834.html

http://docs.opencv.org/trunk/d5/d26/tutorial_py_knn_understanding.html


KNN近邻分类法(k-Nearest Neighbor)是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。

这个算法首先贮藏所有的训练样本,然后通过分析(包括选举,计算加权和等方式)一个新样本周围K个最近邻以给出该样本的相应值。这种方法有时候被称作“基于样本的学习”,即为了预测,我们对于给定的输入搜索最近的已知其相应的特征向量。

简单说来就是从训练样本中找出K个与其最相近的样本,然后看这K个样本中哪个类别的样本多,则待判定的值(或说抽样)就属于这个类别。

                                                             

有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在,我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。

判别上图中那个绿色的圆是属于哪一类数据就从它的邻居下手。但一次性看多少个邻居呢?从上图中,你还能看到:

  • 如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
  • 如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。

     于此我们看到,当无法判定当前待分类点是从属于已知分类中的哪一类时,我们可以依据统计学的理论看它所处的位置特征,衡量它周围邻居的权重,而把它归为(或分配)到权重更大的那一类。这就是K近邻算法的核心思想。

KNN算法的步骤

  1. 计算已知类别数据集中每个点与当前点的距离;
  2. 选取与当前点距离最小的K个点;
  3. 统计前K个点中每个类别的样本出现的频率;
  4. 返回前K个点出现频率最高的类别作为当前点的预测分类。

 

  • 训练KNN模型
bool CvKNearest::train( const CvMat* _train_data, const CvMat* _responses,const CvMat* _sample_idx=0,
                                    bool is_regression=false, int _max_k=32, bool _update_base=false );

这个类的方法训练K近邻模型。

它遵循一个一般训练方法约定的限制:只支持CV_ROW_SAMPLE数据格式,输入向量必须都是有序的,而输出可以 是 无序的(当is_regression=false),可以是有序的(is_regression = true)。并且变量子集和省略度量是不被支持的。

参数_max_k 指定了最大邻居的个数,它将被传给方法find_nearest。

参数 _update_base 指定模型是由原来的数据训练(_update_base=false),还是被新训练数据更新后再训练(_update_base=true)。在后一种情况下_max_k 不能大于原值, 否则它会被忽略。

  • 寻找输入向量的最近邻
float CvKNearest::find_nearest( const CvMat* _samples, int k, CvMat* results=0, const float** neighbors=0, 
                                CvMat* neighbor_responses=0, CvMat* dist=0 ) const;

参数说明:

  1. samples为样本数*特征数的浮点矩阵;
  2. K为寻找最近点的个数;results与预测结果;
  3. neibhbors为k*样本数的指针数组(输入为const,实在不知为何如此设计);
  4. neighborResponse为样本数*k的每个样本K个近邻的输出值;
  5. dist为样本数*k的每个样本K个近邻的距离。

对每个输入向量(表示为matrix_sample的每一行),该方法找到k(k≤get_max_k() )个最近邻。在回归中,预测结果将是指定向量的近邻的响应的均值。在分类中,类别将由投票决定。

对传统分类和回归预测来说,该方法可以有选择的返回近邻向量本身的指针(neighbors, array of k*_samples->rows pointers),它们相对应的输出值(neighbor_responses, a vector of k*_samples->rows elements) ,和输入向量与近邻之间的距离(dist, also a vector of k*_samples->rows elements)。

对每个输入向量来说,近邻将按照它们到该向量的距离排序。

对单个输入向量,所有的输出矩阵是可选的,而且预测值将由该方法返回。

 

 

 

一般的分类模型建立的步骤,分类一般分为两种:

  • 决策树归纳(消极学习法):先根据训练集构造出分类模型,根据分类模型对测试集分类。

     消极学习法在提供训练元组时只做少量工作,而在分类或预测时做更多的工作。KNN就是一种简单的消极学习分类方法,它开始并不建立模型,而只是对于给定的训练实例点和输入实例点,基于给定的邻居度量方式以及结合经验选取合适的k值,计算并且查找出给定输入实例点的k个最近邻训练实例点,然后基于某种给定的策略,利用这k个训练实例点的类来预测输入实例点的类别。

  •  基于实例的方法:推迟建模,当给定训练元组时,简单地存储训练数据(或稍加处理),一直等到给定一个测试元组。


### 基于KNN算法的图像识别实现 #### 读取图片文件、展示图片及部分采样 对于图像识别任务中的第一步,即读取图片文件、展示图片以及进行部分采样,通常会利用Python编程语言及其丰富的库支持来完成这些操作。具体来说,`matplotlib.pyplot`用于显示图像;而`cv2.imread()`函数来自OpenCV库,则负责加载图像文件[^1]。 ```python import cv2 from matplotlib import pyplot as plt def load_and_show_image(image_path): img = cv2.imread(image_path, cv2.IMREAD_GRAYSCALE) # 加载灰度图 plt.imshow(img, cmap='gray') plt.axis('off') # 不显示坐标轴 plt.show() ``` 为了提高计算效率,在处理大型数据集时会对样本数量做出一定限制——这就是所谓的“部分采样”。可以通过随机选取子集的方式减少参与训练的数据量,从而降低时间成本的同时不影响整体效果显著性。 #### 使用KNN算法识别图片 当涉及到具体的分类工作时,Scikit-Learn提供了非常便捷的方法构建KNN模型: ```python from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) knn_classifier = KNeighborsClassifier(n_neighbors=k_value) knn_classifier.fit(X_train, y_train) predictions = knn_classifier.predict(X_test) ``` 这里的关键在于调整邻居数(`n_neighbors`)这一超参数以获得最佳性能表现。此外,考虑到原始输入可能具有较高的维度特性(比如彩色照片),因此有必要引入降维手段简化后续分析过程。 #### 应用PCA技术进行降维 主成分分析(Principal Component Analysis, PCA)是一种常用的线性变换方法,它能够有效地压缩多变量数据集至更低维度的空间内表示出来而不丢失过多有用的信息。特别地,在本案例中将目标设定为降至二维平面以便直观观察各个类别之间的分布情况。 ```python from sklearn.decomposition import PCA pca_transformer = PCA(n_components=2).fit(training_data) transformed_points = pca_transformer.transform(testing_data) plt.scatter(transformed_points[:, 0], transformed_points[:, 1]) plt.xlabel("First Principal Component") plt.ylabel("Second Principal Component") plt.title("Visualization of Image Data After PCA Transformation to 2D Space") plt.show() ``` #### 提取经典特征并再次训练 除了直接采用像素强度作为属性之外,还可以考虑提取更加抽象但却更具描述性的特征向量来进行建模预测。例如颜色直方图(Color Histograms)和方向梯度直方图(Histogram of Oriented Gradients,HOG)都是常见的选择之一。一旦获取到了新的表征形式后就可以继续沿用之前的策略建立相应的KNN实例对象执行相似的任务逻辑。 #### 利用神经网络改进识别精度 最后值得一提的是,随着深度学习领域的发展壮大,越来越多的研究表明相比于传统机器学习方案而言,基于人工神经元结构设计而成的学习框架往往能够在解决模式匹配类难题上取得更好的成绩。即使是在当前上下文中尚未深入探讨过的背景条件下也不例外。借助诸如TensorFlow/Keras这样的高级API接口可以帮助快速搭建起适合特定应用场景需求下的前馈型全连接层堆叠架构,并通过反向传播机制自动求解最优权重配置组合使得最终得到的结果尽可能接近真实标签值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值