- 博客(6)
- 收藏
- 关注
原创 【Ch5】Logistic 回归
1,逻辑回归的定义简单来说, 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。 注意,这里用的是“可能性”,而非数学上的“概率”,logisitc回归的结果并非数学定义中的概率值,不可以直接当做概率值来用。该结果往往用于和其他特征值加权求和,而非直接相乘。那么逻辑回归与线性回归是什么关系呢?逻辑回归(Logistic Regres
2021-10-01 16:45:10
248
原创 【Ch4】基于概率论的分类方法:朴素贝叶斯
贝叶斯决策论贝叶斯决策论(Bayesian decision theory)是概率框架下实施决策的基本方法。对分类任务来说,在所有相关概率都已知的理想情况下,贝叶斯决策轮考虑如何基于这些概率和误判损失来选择最优的类别标记。后验概率从公式中可知,如果要计算X条件下Y发生的概率,只需要计算出后面等式的三个部分,X事件的概率(P(X)),是X的先验概率、Y属于某类的概率(P(Y)),是Y的先验概率、以及已知Y的某个分类下,事件X的概率(P(X|Y)),是后验概率。For example:假设一个学校里
2021-09-26 21:42:18
276
原创 【Ch3】决策树
决策树原理决策树(decision tree):是一种基本的分类与回归方法,此处主要讨论分类的决策树。在分类问题中,表示基于特征对实例进行分类的过程,可以认为是if-then的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。用决策树分类:从根节点开始,对实例的某一特征进行测试,根据测试结果将实例分配到其子节点,此时每个子节点对应着该特征的一个取值,如此递归的对实例进行测试并分配,直到到达叶节点,最后将实例分到叶节点的类中。决策树基本知识决策树学习的目标:根据给定的训练数据集构建一个决
2021-09-13 21:29:37
304
原创 【Ch2】k - 近邻算法
一,算法原理knn算法的核心思想是未标记样本的类别,由距离其最近的k个邻居投票来决定。具体的,假设我们有一个已标记好的数据集。此时有一个未标记的数据样本,我们的任务是预测出这个数据样本所属的类别。knn的原理是,计算待标记样本和数据集中每个样本的距离,取距离最近的k个样本。待标记的样本所属类别就由这k个距离最近的样本投票产生。假设X_test为待标记的样本,X_train为已标记的数据集,算法原理的伪代码如下:遍历X_train中的所有样本,计算每个样本与X_test的距离,并把距离保存在Dist
2021-09-08 22:01:48
145
原创 机器学习大纲
机器学习大纲第一部分:分类【Ch1】机器学习基础【Ch2】k - 近邻算法【Ch3】决策树【Ch4】基于概率论的分类方法:朴素贝叶斯【Ch5】Logistic 回归【Ch6】支持向量机【Ch7】利用 AdaBoost 元算法提高分类性能第二部分:利用回归预测数值型数据【Ch8】预测数值型数据:回归【Ch9】树回归第三部分:无监督学习【Ch10】利用 K-均值聚类算法对未标注数据分组【Ch11】基于 Apriori 算法进行关联分析【Ch12】使用 FP-growth 算法来高效
2021-08-28 15:43:23
343
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅