本篇博客主要介绍cv2模块机器学习部分中的K近邻,k近邻即根据k各最近的值进行分类的方法,即KNN。在KNN中,距离近的具有更高的权重值,k的取值最好为奇数。
# encoding:utf-8
import cv2
import numpy as np
import matplotlib.pyplot as plt
# Feature:设置为25行2列的包含(x,y)的已知的训练数据
trainData = np.random.randint(0, 100, (25, 2)).astype(np.float32)
# print(trainData)
# labels:设置为0:代表Red, 1:代表Blue
labels = np.random.randint(0, 2, (25, 1)).astype(np.float32)
# print(labels)
# 找出红色并绘制
# print(labels.ravel())
red = trainData[labels.ravel() == 0] # ravel()降维
plt.scatter(red[:, 0], red[:, 1], 80, 'r', '^') # 绘制三角散点图
# 找出蓝色并绘制
blue = trainData[labels.ravel() == 1]
plt.scatter(blue[:, 0], blue[:, 1], 80, 'b', 's')
# 测试数据被标记为绿色
'''
返回值包括:
1、由KNN算法计算得到的测试数据的类别标志0或1,
如果想要使用最近邻算法,只需将k置为1。
2、k个最近邻居的类别标志。
3、每个最近邻居到测试数据的距离
'''
ne