机器学习系列(二)-- KNN回归算法实现

该博客介绍了如何使用KNN(K-近邻)算法进行回归预测,具体针对鸢尾花数据集进行训练和测试。首先,通过删除ID和Species列进行数据预处理,然后实现KNN回归类,包括计算距离、找到最近邻居并预测目标值。文章还展示了两种预测方法,一种是简单平均,另一种考虑了距离权重。最后,对模型的预测结果进行了可视化,并对比了两种预测方法的误差。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

数据预处理

import numpy as np
import pandas as pd

data = pd.read_csv('../KNN分类/iris.csv')
# print(data)
# 删除不需要的ID和Species列  因为需要进行回归预测  类别信息就没有用处了
data.drop(['ID','Species'],axis=1,inplace=True)
# print(data)
# 删除重复的数据
data.drop_duplicates(inplace=True)

KNN 回归

# KNN 回归
class KNN:
    #  使用python 实现近邻操作实现回归预测
#     该算法用于回归预测,根据前三个特征属性,寻找最近的k个邻居
#     然后根据k个邻居的第四个特征属性 去预测当前样本的第k个特征值
    def __init__(self,k):
        # 初始化方法

        # paramaters
        # k : int 邻居的个数
        self.k = k

    def fit(self,X,y):

        # 训练方法
        # paramaters
        # X : 类数组类型(特征矩阵),形状为[样本数量,特征数量]
        # 带训练的样本特征(属性)
        # y : 类数组类型(特征矩阵),形状为[样本数量] 每个样本的目标值(标签)


        # 注意 样本X和y转换为数组的形式  方便进行统一操作
        self.X = np.asarray(X)
        self.y = np.asarray(y)

    def predict(self,X):

        # 根据参数传递的X 对样本数据进行预测
        # Parameters :X 类数组类型 形状为[样本数量,特征数量]
        # 待测试的样本特征(属性)
        # return result: 数组类型 预测的结果值

        # 转换数组类型
        X = np.asarray(X)
        # 保存预测的结果值
        result = []
        for x in X:
            # 计算距离 (计算与训练集中每个X的距离)
            dis = np.sqrt(np.sum((x - self.X)**2,axis=1))
            # 返回数组排序 每个元素在数组中(排序之前的数组)的索引
            index = dis.argsort()
            # 取前k个距离最近的索引 (在原数组之间的索引)
            index = index[:self.k]
            # 计算均值 加入返回结果的数组当中
            result.append(np.mean(self.y[index]))
        return np.array(result)

    def predict2(self, X):

        # 根据参数传递的X 对样本数据进行预测 (考虑权重)
        # 权重计算方式:使用每个节点(邻居)距离的倒数/所有节点距离倒数之和
        # Parameters :X 类数组类型 形状为[样本数量,特征数量]
        # 待测试的样本特征(属性)
        # return result: 数组类型 预测的结果值

        # 转换数组类型
        X = np.asarray(X)
        # 保存预测的结果值
        result = []
        for x in X:
            # 计算距离 (计算与训练集中每个X的距离)
            dis = np.sqrt(np.sum((x - self.X) ** 2, axis=1))
            # 返回数组排序 每个元素在数组中(排序之前的数组)的索引
            index = dis.argsort()
            # 取前k个距离最近的索引 (在原数组之间的索引)
            index = index[:self.k]
            # 求所有的邻居节点距离的倒数之和
            s = np.sum(1 / dis[index] + 0.001)  # 0.001防止分母为0
            # 计算均值 加入返回结果的数组当中
            # result.append(np.mean(self.y[index]))
            # 使用每个节点距离的倒数  除以倒数之和 得到权重
            weight = (1 / (dis[index] + 0.001)) / s
            # 使用邻居节点的标签值 乘以对应的权重 然后想加 都得到最终的预测结果
            result.append(np.sum(self.y[index]+weight))
        return np.array(result)

测试与训练

t = data.sample(len(data),random_state=0)
train_X = t.iloc[:120,:-1]
train_y = t.iloc[:120,-1]
test_X = t.iloc[120:,:-1]
test_y = t.iloc[120:,-1]

knn = KNN(k=3)
knn.fit(train_X,train_y)
result = knn.predict(test_X)
result2 = knn.predict2(test_X)
print(result2)
re = np.mean(np.sum((result-test_y)**2))
re2 = np.mean(np.sum((result2-test_y)**2))
print(re2)
# print(test_y)

KNN可视化

# KNN 可视化

import matplotlib as mpl
import matplotlib.pyplot as plt

# 默认情况下 matplotlib不支持中文显示,我们需要进行一下设置
# 设置字体为黑体 以支持中文显示
mpl.rcParams['font.family'] = 'SimHei'
# 设置在中文字体时   能够正常的显示负号(-)
mpl.rcParams['axes.unicode_minus'] = False

plt.figure(figsize=(10,10))
# 绘制预测图
plt.plot(result,'ro-',label='预测值')
# 绘制真实值
plt.plot(test_y.values,'go-',label='真实值')
plt.title('KNN连续值预测展示')
plt.xlabel('节点序号')
plt.ylabel('花瓣宽度')
plt.legend()
plt.show()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

gm0012

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值