Machine Learning in Action Chapter2

本文深入探讨了KNN算法的实现细节,通过具体案例展示了如何使用Python进行数据预处理、特征缩放及分类预测。文章还介绍了如何评估分类器性能,并提供了完整的代码示例。

python 3.6

此代码取自书中。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
@file:KNN.py
@time:2019/1/1 14:10
@author:Victor
@site:https://blog.youkuaiyun.com/sumup
"""

from numpy import *
import operator
import matplotlib
import matplotlib.pyplot as plt

# def createDataSet():
	# group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
	# labels = ['A','A','B','B']
	# return group, labels
	
def classify0(inX, dataSet, labels, k):
	dataSetSize = dataSet.shape[0]
	
	##输出dataSet的行数
	print(dataSet.shape[1])##2列
	print(dataSet.shape[0])##4行
	
	##构造(dataSetSize,1)规摸的数组,并inX数组与dataSet相减
	# [[-1.  -1.1]
	# [-1.  -1. ]
	# [ 0.   0. ]
	# [ 0.  -0.1]]
	diffMat = tile(inX, (dataSetSize,1)) - dataSet
	print(diffMat)
	
	##矩阵平方
	# [[1.   1.21]
	# [1.   1.  ]
	# [0.   0.  ]
	# [0.   0.01]]
	sqDiffMat = diffMat**2
	print(sqDiffMat)
	
	##矩阵每行求和
	# [2.21 2.   0.   0.01]
	sqDistances = sqDiffMat.sum(axis=1)
	print(sqDistances)
	# print(sqDistances.shape[0]) ##4
	
	##每行的和开方
	# [1.48660687 1.41421356 0.         0.1       ]
	distances = sqDistances**0.5
	print(distances)
	##从小到大排序,输出下标
	# [2 3 1 0]
	sortedDistIndicies = distances.argsort()
	print(sortedDistIndicies)
	
	classCount = {}
	for i in range(k):
		voteIlabel = labels[sortedDistIndicies[i]]
		print(voteIlabel)
		##在classCount中查找voteIlabel,若没,赋值0,并+1
		classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
	
	# print(classCount.items())  ##dict_items([('B', 2), ('A', 1)])
	##key 为classCount的value
	sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1), reverse=True)
	
	return sortedClassCount[0][0]
	
##Input filename
##Output returnMat classLabelVector
def file2matrix(filename):
	fr = open(filename)
	arrayOLines = fr.readlines()
	numberOfLines = len(arrayOLines)
	##创建(numberOfLines,3)矩阵,并初始化0
	returnMat = zeros((numberOfLines,3))
	classLabelVector = []
	index = 0
	for line in arrayOLines:
		##默认删除空白符(包括'\n', '\r',  '\t',  ' ')
		line = line.strip()
		##根据‘\t’划分开
		listFromLine = line.split('\t')
		
		returnMat[index,:] = listFromLine[0:3]
		# print(returnMat[index,:])
		classLabelVector.append(int(listFromLine[-1]))
		index += 1
	return returnMat,classLabelVector

##newvalue = (oldValue-min)/(max-min)	
def autoNorm(dataSet):
	##返回矩阵中每一列的最小值
	minVals = dataSet.min(0)
	##返回矩阵中每一列的最大值
	maxVals = dataSet.max(0)
	ranges = maxVals - minVals
	normDataSet = zeros(shape(dataSet))
	m = dataSet.shape[0]
	normDataSet = dataSet - tile(minVals, (m,1))
	normDataSet = normDataSet/tile(ranges, (m,1))
	return normDataSet, ranges, minVals
	
def datingClassTest():
	#10%用于求结果
	hoRatio = 0.10
	datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
	normMat,ranges,minVals = autoNorm(datingDataMat)
	m = normMat.shape[0]
	numTestVecs = int(m*hoRatio)
	errorCount = 0.0
	for i in range(numTestVecs):
		classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
		print('the classfier came back with: %d, the real answer is: %d' %(classifierResult,datingLabels[i]))
		if (classifierResult != datingLabels[i]):
			errorCount += 1.0
		print('the total error rate is: %f' %(errorCount/float(numTestVecs)))
	

def classifyPerson():
	resultList =['not at all','in small does','in large does']
	percentTats = float(input("percentage of time spent playing video games?"))
	ffMiles = float(input("frequent flier miles earned per year"))
	iceCream = float(input("liters of iceam consumed per year?"))
	datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
	normMat, ranges, minVals = autoNorm(datingDataMat)
	inArr = array([ffMiles, percentTats,iceCream])
	classifierResult = classify0((inArr-minVals)/ranges,normMat,datingLabels,3)
	print("you will probably link this person: ",resultList[classifierResult-1])
	
# group,labels = createDataSet()

# print(group)
# print(labels)
# print(classify0([0,0],group,labels,3))
# datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')

# fig = plt.figure()            
#add_subplot(mnp)#添加子轴、图。subplot(m,n,p)或者subplot(mnp)此函数最常用:
#subplot是将多个图画到一个平面上的工具。其中,m表示是图排成m行,n表示图排成n列,也就是整个figure中有n个图是排成一行的,一共m行,如果第一个数字是2就是表示2行图。
#p是指你现在要把曲线画到figure中哪个图上,最后一个如果是1表示是从左到右第一个位置。
# ax = fig.add_subplot(111)
# ax.scatter(datingDataMat[:,0],datingDataMat[:,1],15.0*array(datingLabels),15.0*array(datingLabels))
# print(autoNorm(datingDataMat))
# plt.show()
# datingClassTest()
classifyPerson()

 

标题基于Python的汽车之家网站舆情分析系统研究AI更换标题第1章引言阐述汽车之家网站舆情分析的研究背景、意义、国内外研究现状、论文方法及创新点。1.1研究背景与意义说明汽车之家网站舆情分析对汽车行业及消费者的重要性。1.2国内外研究现状概述国内外在汽车舆情分析领域的研究进展与成果。1.3论文方法及创新点介绍本文采用的研究方法及相较于前人的创新之处。第2章相关理论总结和评述舆情分析、Python编程及网络爬虫相关理论。2.1舆情分析理论阐述舆情分析的基本概念、流程及关键技术。2.2Python编程基础介绍Python语言特点及其在数据分析中的应用。2.3网络爬虫技术说明网络爬虫的原理及在舆情数据收集中的应用。第3章系统设计详细描述基于Python的汽车之家网站舆情分析系统的设计方案。3.1系统架构设计给出系统的整体架构,包括数据收集、处理、分析及展示模块。3.2数据收集模块设计介绍如何利用网络爬虫技术收集汽车之家网站的舆情数据。3.3数据处理与分析模块设计阐述数据处理流程及舆情分析算法的选择与实现。第4章系统实现与测试介绍系统的实现过程及测试方法,确保系统稳定可靠。4.1系统实现环境列出系统实现所需的软件、硬件环境及开发工具。4.2系统实现过程详细描述系统各模块的实现步骤及代码实现细节。4.3系统测试方法介绍系统测试的方法、测试用例及测试结果分析。第5章研究结果与分析呈现系统运行结果,分析舆情数据,提出见解。5.1舆情数据可视化展示通过图表等形式展示舆情数据的分布、趋势等特征。5.2舆情分析结果解读对舆情分析结果进行解读,提出对汽车行业的见解。5.3对比方法分析将本系统与其他舆情分析系统进行对比,分析优劣。第6章结论与展望总结研究成果,提出未来研究方向。6.1研究结论概括本文的主要研究成果及对汽车之家网站舆情分析的贡献。6.2展望指出系统存在的不足及未来改进方向,展望舆情
【磁场】扩展卡尔曼滤波器用于利用高斯过程回归进行磁场SLAM研究(Matlab代码实现)内容概要:本文介绍了利用扩展卡尔曼滤波器(EKF)结合高斯过程回归(GPR)进行磁场辅助的SLAM(同步定位与地图构建)研究,并提供了完整的Matlab代码实现。该方法通过高斯过程回归对磁场空间进行建模,有效捕捉磁场分布的非线性特征,同时利用扩展卡尔曼滤波器融合传感器数据,实现移动机器人在复杂环境中的精确定位与地图构建。研究重点在于提升室内等无GPS环境下定位系统的精度与鲁棒性,尤其适用于磁场特征明显的场景。文中详细阐述了算法原理、数学模型构建、状态估计流程及仿真实验设计。; 适合人群:具备一定Matlab编程基础,熟悉机器人感知、导航或状态估计相关理论的研究生、科研人员及从事SLAM算法开发的工程师。; 使用场景及目标:①应用于室内机器人、AGV等在缺乏GPS信号环境下的高精度定位与地图构建;②为磁场SLAM系统的设计与优化提供算法参考和技术验证平台;③帮助研究人员深入理解EKF与GPR在非线性系统中的融合机制及实际应用方法。; 阅读建议:建议读者结合Matlab代码逐模块分析算法实现细节,重点关注高斯过程回归的训练与预测过程以及EKF的状态更新逻辑,可通过替换实际磁场数据进行实验验证,进一步拓展至多源传感器融合场景。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值