机器学习——算法分类以及开发流程

目录

机器学习算法的判别依据

数据类型

数据类型的不同应用

机器学习开发流程

1、原始数据

2、数据的基本处理

3、特征工程

4、找到合适的算法进行预测

5、模型评估——判定模型效果

6、上线使用

机器学习算法分类

监督学习——特征值+目标值

分类——目标值离散型

回归——目标值连续型

无监督学习——特征值

机器学习模型是什么


  • 算法是核心,数据计算是基础
  • 找准定位

        算法工程师:复杂模型的算法设计

        开发工程师:分析很多的数据,分析具体的业务,应用常见的算法,特征工程、调参数、优化

  • 我们应该怎么做

       1、学会分析问题,使用机器学习算法的目的,想要算法完成何种任务

       2、掌握算法基本思想,学会对问题用相应的算法解决

       3、学会利用库或者框架解决问题

机器学习算法的判别依据

数据类型

  • 离散型数据——由记录不同类别个体的数目所得到的数据,又称计数数据,所有这些数据全部都是整数,而且不能再细分,也不能进一步提高他们的精确度。
  • 连续型数据——变量可以在某个范围内任取一数,即变量的取值可以是连续的,如:长度、时间、质量值等,这类数据通常是非整数,含有小数部分。

注:只要记住一点,离散型是区间内不可分,连续型是区间内可分

数据类型的不同应用

数据的类型将是机器学习模型不同问题不同处理的依据?

猫狗分类:0-1

文章类型:0-1-2-3-4

预测下月票房数据:连续型数据

机器学习开发流程

1、原始数据

  • 公司本身就有数据
  • 合作过来数据
  • 购买的数据

2、数据的基本处理

pd去处理数据(缺失值、合并表...)

3、特征工程

特征进行处理——重要

分类、回归

4、找到合适的算法进行预测

根据数据(目标数据)类型,划分模型种类

模型:算法+数据

5、模型评估——判定模型效果

如果模型没有合格

  • 换算法
  • 在特征工程再做一些处理

6、上线使用

以API形式提供

机器学习算法分类

  • 监督学习
  • 分类    k-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络
  • 回归    线性回归、岭回归
  • 标注    隐马尔可夫模型     (不做要求)
  • 无监督学习
  • 聚类    k-means

 

监督学习——特征值+目标值

监督学习(英语:Supervised learning),可以由输入数据中学到或建立一个模型,并依此模式推测新的结果。输入数据是由输入特征值和目标值所组成。函数的输出可以是一个连续的值(称为回归),或是输出是有限个离散值(称作分类)

分类——目标值离散型

 

1、概念

分类是监督学习的一个核心问题,在监督学习中,当输出变量取有限个离散值时,预测问题变成为分类问题。最基础的便是二分类问题,即判断是非,从两个类别中选择一个作为预测结果;

2、分类问题的应用

分类在于根据其特性将数据“分门别类”,所以在许多领域都有广泛的应用

  • 在银行业务中,构建一个客户分类模型,按客户按照贷款风险的大小进行分类
  • 图像处理中,分类可以用来检测图像中是否有人脸出现,动物类别等
  • 手写识别中,分类可以用于识别手写的数字
  • 文本分类,这里的文本可以是新闻报道、网页、电子邮件、学术论文

回归——目标值连续型

1、概念

回归是监督学习的另一个重要问题。回归用于预测输入变量和输出变量之间的关系,输出是连续型的值

2、回归问题的应用

回归在多领域也有广泛的应用

  • 房价预测,根据某地历史房价数据,进行一个预测
  • 金融信息,每日股票走向

无监督学习——特征值

无监督学习(英语:Supervised learning),可以由输入数据中学到或建立一个模型,并依此模式推测新的结果。输入数据是由输入特征值所组成。

机器学习模型是什么

定义:通过一种映射关系将输入值到输出值 

### KNN算法机器学习中的实现与应用 #### 一、KNN算法简介 K近邻(K-Nearest Neighbor, KNN)是一种基本分类与回归方法。该算法的核心思想在于通过计算待测样本与训练集中各个样本的距离,选取距离最小的前K个邻居,并依据这些邻居的信息来进行决策。对于分类问题而言,则是根据多数表决原则决定新实例所属类别;而对于回归问题来说,则通常采用这K个最接近的数据点的目标属性平均值作为预测结果。 #### 二、R语言下的具体实践案例 针对鸢尾花数据集的应用展示了如何利用基础函数完成整个流程而无需依赖额外包的支持[^2]。在这个例子中,通过对不同特征维度间欧氏距离或其他度量方式的选择实现了对未知样本的有效识别。这种做法不仅有助于理解原理本身,同时也锻炼了编程技巧以及解决实际问题的能力。 ```r # 加载必要的库并读入数据 library(ggplot2) data(iris) head(iris) # 数据预处理... set.seed(1234) trainIndex <- sample(seq_len(nrow(iris)), size = floor(.7 * nrow(iris))) trainingData <- iris[trainIndex, ] testingData <- iris[-trainIndex, ] # 定义knn函数用于后续调用 knnPredict <- function(trainSet, testInstance, labels, k){ distances <- sqrt(rowSums((t(t(trainSet[,1:4]) - as.numeric(testInstance)))^2)) sortedDistIndices <- order(distances)[1:k] classCounts <- table(labels[sortedDistIndices]) return(names(which.max(classCounts))) } predictions <- sapply(as.matrix(testingData[,1:4]), knnPredict, trainSet=as.matrix(trainingData[,1:4]), labels=trainingData$Species,k=3L) confusionMatrix <- table(predictions,factor(testingData$Species)) print(confusionMatrix) ``` 上述代码片段演示了一个完整的基于自定义逻辑而非第三方工具包构建KNN模型的过程,包括但不限于数据分割、相似性测量及最终评估等方面的工作。 #### 三、应用场景探讨 尽管存在诸如计算复杂度较高等局限之处,但在某些特定条件下依然能够展现出独特价值: - **低维空间**:当输入变量数量较少时,性能表现良好; - **多模态分布**:可以很好地适应具有多个峰值的概率密度函数所描述的现象; - **快速原型开发**:由于易于理解和编码特性,在初期探索阶段可作为一种高效手段迅速验证想法可行性[^3]。 综上所述,虽然与其他更先进的技术相比可能显得不够先进,但凭借其实现简便性和灵活性依旧占据着不可替代的地位。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

非零因子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值