
machineLean
machineLean
waeceo
毕业后到目前为止还是零
展开
-
ML常用资料链接
ML常用资料链接1.1000题https://blog.youkuaiyun.com/v_JULY_v/article/details/781219242.原创 2020-10-08 08:15:16 · 402 阅读 · 0 评论 -
贝叶斯网络
https://blog.youkuaiyun.com/v_july_v/article/details/40984699#t6分享一个连接,写的比较详细了原创 2020-02-21 15:14:25 · 317 阅读 · 0 评论 -
EM算法
一、EM算法介绍我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布的对数似然函数。(最大似然估计:利用已知的样本结果,反推最有可能导致这样结果的一组参数)但是在一些情况下,我们得到的观察数据有未观察到的隐含数据,此时我们未知的有隐含数据和模型参数,因而无法直接用极大化对数似然函数得到模型分布的参数。用EM算法可以解决。EM算法是...原创 2020-02-15 09:57:37 · 710 阅读 · 0 评论 -
L1正则化和L2正则化
分享两篇文章:第一篇,简单,易懂:https://www.jianshu.com/p/76368eba9c90第二篇,详细,原理:https://www.jianshu.com/p/7b35bbb3478f原创 2019-10-20 16:16:10 · 287 阅读 · 0 评论 -
深入浅出--梯度下降法及其实现
梯度下降的场景假设 梯度 梯度下降算法的数学解释 梯度下降算法的实例 梯度下降算法的实现 Further reading本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而从数学上解释梯度下降算法的原理,最后实现一个简单的梯度下降算法的实例!梯度下降的场景假设梯度下降法的基本思想可以类比为一个下山的过程。假设这样一个场景:一个人被困在山上,需要从山上下来(i....原创 2019-10-20 11:16:13 · 239 阅读 · 0 评论 -
朴素贝叶斯
朴素贝叶斯算法看了几篇文章觉得下面这片文章写的还可以:其中借鉴了西瓜书上的内容,还有半朴素贝叶斯分类器(比较笼统了),还有朴素贝叶斯方面的面试问题。机器学习之朴素贝叶斯算法详解...原创 2019-06-29 15:33:54 · 948 阅读 · 0 评论 -
k-means和二分k-means算法
聚类算法是机器学习中的一类无监督学习方法,用于将无标签的数据进行聚类划分。最简单的也最典型的一类算法就是KMeans算法。此处的K表示划分成K个聚类。利用各个点到质心之间的距离的平方和作为将节点划分到不同类的标准。当然也可以采用其他的距离计算方法,不一定是欧式距离方法。一、KMeans此方法一般是在数据分析前期使用,选取适当的K,将数据聚类后,研究不同聚类下数据的特点。算法原理:(...原创 2019-06-27 07:41:57 · 2531 阅读 · 0 评论 -
SMO(序列最小优化算法)解析
什么是SVMSVM是Support Vector Machine(支持向量机)的英文缩写,是上世纪九十年代兴起的一种机器学习算法,在目前神经网络大行其道的情况下依然保持着生命力。有人说现在是神经网络深度学习的时代了,AI从业者可以不用了解像SVM这样的古董了。姑且不说SVM是否真的已经没有前途了,仅仅是SVM在数学上优美的推导就值得后来者好好欣赏一番,这也是笔者迄今为止见过机器学习领域最优美的...原创 2019-06-22 17:01:34 · 1140 阅读 · 0 评论 -
感知机
感知机感知机是二分类的线性分类模型,输入为实例的特征向量,输出为实例的类别(取+1和-1)。感知机对应于输入空间中将实例划分为两类的分离超平面。感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用梯度下降法对损失函数进行最优化(最优化)。感知机的学习算法具有简单而易于实现的优点,分为原始形式 和 对偶形式。感知机预测是用学习得到的感知机模型对新的实例进行预测的,因此属于判别模型...原创 2019-06-19 07:59:46 · 4518 阅读 · 0 评论 -
拉格朗日乘子法
一般情况下,最优化问题会有三类:(一)、无约束条件 这种情况想都不用想,直接对变量求导等于0,代入原函数验证即可。(二)、等式约束条件 我们假定目标函数为f(x),约束条件为h_k(x)。 minf(x)minf(x) (最大值最小值问题可以相互转化) s.t. hk(x)=0,k=1,2,3...s.t. hk(x)=0,k=1,2,3......原创 2019-06-15 23:02:02 · 906 阅读 · 0 评论 -
GBDT
分享原文链接:https://blog.youkuaiyun.com/yyy430/article/details/85108797个人感觉讲的比较好,参考了 “百面机器学习”这本书转载 2019-06-13 08:05:59 · 179 阅读 · 0 评论 -
Adaboost算法
转载一篇Adaboost方面的文章:https://blog.youkuaiyun.com/sinat_29957455/article/details/79810188讲的比较好,跟 统计学方法这本书上的内容差不多转载 2019-06-12 07:36:13 · 136 阅读 · 0 评论 -
混淆矩阵
混淆矩阵(confusion matrix)衡量的是一个分类器分类的准确程度。理解其概念本身容易理解,但一些特定术语易被混淆。混淆矩阵适用于包含多个分类器的问题,本文为了让读者理解更加容易,以二元分类的混淆矩阵为例进行讲解。观察混淆矩阵,可得如下结论:1. 示例是一个二元分类问题,产生两种可能的分类:“是”或者“不是”。当预测一个事件是否发生时,“是”意味着该事件已经发生,而“...原创 2019-05-22 08:46:02 · 2839 阅读 · 0 评论 -
Roc曲线、AUC
1 概述 AUC(Area Under roc Curve)是一种用来度量分类模型好坏的一个标准。这样的标准其实有很多,例如:大约10年前在machine learning文献中一统天下的标准:分类精度;在信息检索(IR)领域中常用的recall和precision,等等。其实,度量反应了人们对”好”的分类结果的追求,同一时期的不同的度量反映了人们对什么是”好”这个最根本问题的不同认识,而...转载 2019-05-23 07:56:13 · 471 阅读 · 0 评论 -
基尼系数
一、基础理解 1)公式k:数据集中样本类型数量; Pi:第 i 类样本的数量占总样本数量的比例 2)实例计算基尼系数3 种情况计算基尼系数: 基尼系数的性质与信息熵一样:度量随机变量的不确定度的大小;G 越大,数据的不确定性越高; G 越小,数据的不确定性越低; G = 0,数据集中的所有样本都是同一类别; 3)只有两种类别的数据集x:两类样本中,...原创 2019-05-23 08:13:09 · 3746 阅读 · 0 评论 -
决策树
决策树声明本文是来自网络文档和书本(周老师)的结合。概述决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关...原创 2019-05-18 16:52:49 · 667 阅读 · 0 评论