K最近邻(KNN)

本文介绍了K最近邻(KNN)算法的基本原理和应用。在KNN分类器中,训练阶段只需存储数据,测试阶段通过寻找测试样本最近的K个邻居来决定其类别。以CIFAR-10数据集为例,展示了KNN算法的实现过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

K最近邻(k-Nearest Neighbor,KNN)

KNN分类器由两部分组成:(1)训练部分:只是把数据读进去,然后记下来;(2)测试部分:会找到离它最近的N个训练样本,以它们中出现最多的类别作为它的类别。

首先定义一个KNN的工具类:

import numpy as np

class KNearestNeighbor:
  """ a kNN classifier with L2 distance """

  def __init__(self):
    pass

  def train(self, X, y):
    
    self.X_train = X
    self.y_train = y
    
  def predict(self, X, k=1, num_loops=0):
   
    if num_loops == 0:
      dists = self.compute_distances_no_loops(X)
    elif num_loops == 1:
      dists = self.compute_distances_one_loop(X)
    elif num_loops == 2:
      dists = self.compute_distances_two_loops(X)
    else:
      raise ValueError('Invalid value %d for num_loops' % num_loops)

    return self.predict_labels(dists, k=k)

  def compute_distances_two_loops(self, X):
   
    num_test = X.shape[0]
    num_train = self.X_train.shape[0]
    dists = np.zeros((num_test, num_train))
    for i in xrange(num_test):
      for j in xrange(num_train):
        # L2 distance between ith testing image and jth training image        
        dists[i, j] = np.sum( (self.X_train[j,:] - X[i,:] )**2 )

    return dists

  def compute_distances_one_loop(self, X):
   
    num_test = X.shape[0]
    num_train = self.X_train.shape[0]
    dists = np.zeros((num_test, num_train))
    for i in xrange(num_test):
      # dists[i, :] = np.sum((self.X_train - X[i, :])**2, axis=1 )
      train_2 = np.sum( (self.X_train)**2, axis=1 ).T
  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值