kNN ( 一 )

# -*- coding: utf-8 -*-

"""
1. 直接用.shape可以快速读取矩阵的形状(几乘几),使用shape[0]读取矩阵第一维度的长度
print(shape(group))
print(group.shape[0])

2. 比如 a = np.array([0,1,2]),
   np.tile(a,(2,1))就是把a先沿x轴(就这样称呼吧)复制1倍,即没有复制,仍然是 [0,1,2]。
   再把结果沿y方向复制2倍,
   即:     array([[0,1,2],
             [0,1,2]])
3. values(),keys(),items(),返回值都为一个list
    >>> dict = { 1 : 2, 'a' : 'b', 'hello' : 'world' }
    >>> dict.values()
        ['b', 2, 'world']
    >>> dict.keys()
        ['a', 1, 'hello']
    >>> dict.items()
        [('a', 'b'), (1, 2), ('hello', 'world')]
    输出顺序不是我们保存的顺序,而是python内部的顺序

4. sorted(iterable,key,reverse),
    sorted一共有iterable,key,reverse这三个参数。
    其中iterable表示可以迭代的对象,例如可以是 dict.items()、dict.keys()等,
    用sorted对字典排序
    方法一:
    sort(dict.items(), key = lambda x:x[1], reverse = True)
         lambda x:y 其中x表示输出参数,y表示lambda 函数的返回值
                    所以 x[0]表示按键 x[1]表示按值
    方法二:
    import operator
    sorted(dict.items(),key = operator.itemgetter(1), reverse = True)
         key = operator.itemgetter(1),根据字典的值进行排序
         key = operator.itemgetter(0),根据字典的键进行排序
         reverse 默认升序,为False升序,为True降序

"""
import numpy as np
import operator
"""
group 数据集 (打斗数,接吻数),即特征矩阵
labels 分类标签
"""
def createDataSet( ):
    group = np.array([
            [1, 101],
            [5, 89],
            [108, 5],
            [115, 8] ])
    labels = ['爱情片', '爱情片', '动作片', '动作片']
    return group, labels
""" 
函数说明:Knn算法

Paramaters:
    inX 测试集 kNN测试集的意义:单个样本
    dataSet 训练集 kNN训练集的意义:用来比较的那些数据集
    labels 分类标签 kNN分类标签的意义:用来比较的数据集对应的真实标签
    k  kNN算法参数
"""
def classify(inX, dataSet, labels, k):
    #numpy函数shape[0]返回行数。shape[1]返回列数
    dataSetSize = dataSet.shape[0]
    #使测试集和训练集的行列一样,这样才能相减
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
    #测试集和训练集相减后平方
    sqDiffMat = diffMat ** 2
    #sum():所有元素相加。其中,sum(axis=0)表示列相加, sum(axis=1)表示行相加
    sqDistances = sqDiffMat.sum(axis=1)
    #开方,计算出距离
    distances = sqDistances ** 0.5
    #返回从小到大排序后的索引值
    sortDistIndex = distances.argsort()
 
    #定义一个记录类别次数的字典
    classCount = {}
    for i in range(k):
        voteIlabel = labels[ sortDistIndex[i] ]
        #dict.get(key, default = None)
        #返回指定键的值,若不存在返回默认值
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1

        sortClassCount = sorted(classCount.items(), key = operator.itemgetter(1),reverse = True)
       #sortClassCount = sorted(classCount.items(), key = lambda x:x[1], reverse = True)
        return sortClassCount[0][0]
"""
if __name__ == '__main__'的意思是:
当.py文件被直接运行时,if __name__ == '__main__'之下的代码块将被运行;
当.py文件以模块形式被导入时,if __name__ == '__main__'之下的代码块不被运行。

细节:
__main__等于当前执行文件的名称(包含了后缀.py)
__name__
        1. 以模块直接运行,为当前文件名,包含.py
        2. 以模块导入,为模块名,不包含.py
"""
if __name__ == '__main__':
    group, labels = createDataSet()
    test = [101, 20]
    test_class = classify(test, group, labels, 3)
    print(test_class)
  




"""
总结kNN算法的优缺点
优点:
    简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归;
    可用于数值型数据和离散型数据;
    训练时间复杂度为O(n);无数据输入假定;
    对异常值不敏感

缺点
    计算复杂性高;空间复杂性高;
    样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少);
    一般数值很大的时候不用这个,计算量太大。但是单个样本又不能太少,否则容易发生误分。
    最大的缺点是无法给出数据的内在含义。
"""


 

05-17
### KNN算法简介 KNN算法(K-Nearest Neighbor Algorithm)是种基础的机器学习方法,广泛应用于分类和回归任务中。其核心思想是基于距离度量寻找与目标样本最接近的K个邻居,并利用这些邻居的信息来进行预测[^1]。 在实际操作中,KNN算法通过计算新输入样本与已有数据集中每个样本的距离,找出最近的K个样本作为参考依据。对于分类问题,通常采用多数投票法决定类别归属;而对于回归问题,则取这K个样本的目标值均值作为预测结果[^2]。 #### 算法特点 - **优点**: - 实现简单直观,易于理解和实现。 - 对于多分类问题具有良好的适应能力。 - 能够有效处理非线性分布的数据集。 - **缺点**: - 计算开销较大,尤其当数据规模增大时,每次查询都需要遍历整个训练集并计算距离。 - 敏感于特征缩放以及噪声干扰,在预处理阶段需特别注意标准化等问题。 ### KNN算法的应用领域 由于其实用性和灵活性,KNN被成功运用于多个技术方向: 1. **图像识别** 图像可以通过像素矩阵形式表达,每张图片视为独立向量点.KNN通过对未知图象同数据库里存储的标准样例做对比分析从而判定所属种类.[^1] 2. **语音信号处理** 类似地,音频文件也能转换成频谱序列或者其他数字化描述方式之后交给KNN完成辨识工作. 3. **自然语言处理(NLP)** 文档主题建模或者情感倾向判断都可以借助此手段达成目的之就是先提取关键词频率统计之类的量化指标再送入模型内部运算得到最终结论. 4. **个性化推荐引擎开发** 用户行为习惯记录下来形成庞大的历史资料库以后就可以运用类似的原理推测可能感兴趣的商品列表呈现出来供浏览选购考虑了. 以下是简单的Python代码演示如何使用scikit-learn库快速搭建个基本版别的knn分类器实例: ```python from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 加载鸢尾花数据集 data = load_iris() X, y = data.data, data.target # 划分训练集与测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 数据标准化 scaler = StandardScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) # 初始化KNN分类器(k设为5) clf = KNeighborsClassifier(n_neighbors=5) clf.fit(X_train_scaled, y_train) # 进行预测 y_pred = clf.predict(X_test_scaled) # 输出准确率 print(f'Accuracy: {accuracy_score(y_test, y_pred):.2f}') ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值