
机器学习
文章平均质量分 91
kokopop007
高处不胜寒
展开
-
什么是决策树Decision Tree
决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。决策树算法容易理解,适用各种数据,在解决各种问题时都有良好表现,尤其是以树模型为核心的各种集成算法,在各个行业和领域都有广泛的应用。我们来简单了解一下决策树是如何工作的。*树模型1.决策树:从跟节点开始一步步走到叶子节点(决策)2.所有的数据最终都会落到叶子结点,既可以做分类也可以做回归如上图所示,有一家五口人,首先还是先来做原创 2021-03-12 20:59:00 · 1414 阅读 · 0 评论 -
ML 1.什么是KNN(K近邻算法)
K近邻算法:·思想极度简单·应用的数学知识少(近乎为零)·效果好(有什么缺点?)·可以解释机器学习算法使用过程中的很多的细节问题·更完整的刻画机器学习应用的流程1.什么是KNN?何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。用官...原创 2020-03-27 15:42:56 · 2039 阅读 · 0 评论 -
高深莫测的梯度下降法(GD)和随机梯度下降法(SGD)
梯度下降法:·不是一个机器学习方法是一种基于搜素的最优化方法作用:最小化一个损失函数(最终我们要求解的线性回归模型的本质就是最小化一个损失函数,直接计算出最小化函数的对应的参数的数学解,但是后面会发现很多机器学习的模型是求不到这样的数学解的,基于这样的模型我们就需要基于搜素的策略来找到这个最优解,而梯度下降发就是在机器学习领域最小化损失函数的最为常用的方法,掌握梯度法来求一个目标函数的最优值...原创 2020-03-22 21:23:25 · 3002 阅读 · 0 评论 -
什么是机器学习?
人工智能与机器学习和深度学习的关系机器学习是人工智能的一个分支;除了机器学习数据挖掘模式识别深度学习:深度学习是机器学习的一种方法,是为了解决机器学习领域中如图像识别等问题提出人工智能如何落地:依靠机器学习数据分析、数据挖掘和机器学习的关系数据:即观测值,如测量数据信息:可信的数据。数据分析:从数据到信息的整理、筛选和加工过程数据挖掘:对信息进行价值化的分析用机器学习的方法...原创 2019-08-29 17:18:54 · 279 阅读 · 2 评论 -
机器学习之数据集
数据集,又称为资料集、数据集合或资料集合,是一种由数据所组成的集合。Data set(或dataset)是一个数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。它列出的价值观为每一个变量,如身高和体重的一个物体或价值的随机数。每个数值被称为数据资料。对应于行数,该数据集的数据可能包括一个或多个成员对于机器学习中的数据集:对于数据集需要了解:1....原创 2019-08-29 23:07:07 · 3137 阅读 · 0 评论 -
机器学习分类
先来看看思维导图:引出分类与回归的问题分类 (classification):目标标记为类别型数据(category)回归(regression):目标标记为连续性数值 (continuous numeric value)机器学习分类 - 1根据是否是连续值得预测,分为一.机器学习分类分类问题–离散值预测,如小明学习水上运动回归问题–连续值预测,如房价预测二.机器学习处理问...原创 2019-08-30 16:27:03 · 897 阅读 · 0 评论 -
机器学习三要素
机器学习经典案例车牌、验证码识别的普通方法为:(1)将图片灰度化与二值化。(2)去噪,然后切割成一个一个的字符。(3)提取每一个字符的特征,生成特征矢量或特征矩阵。(4)分类与学习。将特征矢量或特征矩阵与样本库进行比对,挑选出相似的那类样本,将这类样本的值作为输出结果。案例需要明确:明确:机器学习监督学习中的分类问题10分类问题3232矩阵–转换为12014列的矩阵–通过SVM...原创 2019-08-30 16:59:56 · 516 阅读 · 0 评论 -
如何构建机器学习系统?
首先明确:1.该问题是否为机器学习问题? – 是2.该问题是机器学习哪方面的问题? – 监督学习、无监督学习3.当拿到数据之后从下面两个角度思考问题:1)从数据角度思考:根据具备的数据看能够做监督学习or无监督学习or半监督学习2)从业务角度思考:根据业务部门指定的业务方向,整理数据,从而建模特征工程对特征处理对数据的处理数据+选择的算法==>模型通过测试集测试模型,...原创 2019-08-30 20:35:08 · 403 阅读 · 0 评论