
数学与机器学习基础
文章平均质量分 68
小白tree
致力于成为图形学工程师的小白
展开
-
详解GMM高斯混合模型EM模型
一般讲到GMM就会讲到EM。我不过多的介绍EM算法。这里只是举一些例子来看看真实的GMM怎么用EM算的。记住GMM的作用,就是聚类!hard-GMM和soft-GMM是为了对标k-means和soft k-means。在中文互联网上搜索到的GMM,其实基本都是soft-GMM。所以这里我先介绍一下hard-GMM。初始化两个簇权重分别为w1=2/6=1/3,w2=4/6=2/3w_1 = 2/6 = 1/3, w_2 = 4/6 = 2/3w1=2/6=1/3,w2=4/6=2/3.由此可知,两个原创 2022-11-27 20:11:36 · 1224 阅读 · 0 评论 -
速记混淆矩阵中的FP、FN、FP、TN
很多时候混淆矩阵中的这四个概念也很容易让人混淆。只需要记住:首字母 T / F 表示的是你预测对了True,还是错了False,次字母 P / N 表示的是你预测的标签为正Positive,还是负Negtive。接下来就好理解了:(1) TP(True Positive)真正:将正类预测为正类数,真实为0,预测也为0(2) FN(False Negative)假负:将正类预测为负类数,真实为0,预测为1(3) FP(False Positive)假正:将负类预测为正类数, 真实为1,预测为0原创 2021-04-25 20:52:10 · 5795 阅读 · 0 评论 -
向量的范数(有例子,简单好理解)
向量a=[a1,a2,...,am]a=[a_1, a_2, ... , a_m]a=[a1,a2,...,am],常用的几种范数计算方式如下(用b = [1,-2,3]为例):(1)0范数,即向量a中非零元素的个数,常表示为∣∣a∣∣0||a||_0∣∣a∣∣0(对b来说,就是333)(2)1范数,即向量a中所有元素绝对值之和,用公式表示为∣∣a∣∣1=∑i∣ai∣||a||_1=...原创 2019-09-08 15:43:27 · 20472 阅读 · 4 评论 -
机器学习中距离度量方法(欧式、曼哈顿、切比雪夫、余弦、汉明、马哈拉洛斯比斯、相关系数)
一、欧式距离不需要想的太复杂,就是使用了2范数计算距离。如果你不知道2范数也没关系,简单理解为两点之间的直线距离。举个栗子:你可想象一个长宽高都为1的立方体放在xyz坐标系中,(0,0,0)到(1,1,1)的距离我们小学怎么算的?是不是(1−0)2+(1−0)2+(1−0)2=3\sqrt{(1-0)^2+(1-0)^2+(1-0)^2}=\sqrt{3}(1−0)2+(1−0)2+(1−0)...原创 2019-09-08 16:38:16 · 1295 阅读 · 0 评论 -
决策树:ID3算法与CART算法的区别
我这里只从使用的准则出发且对于《统计学习方法》Page71例5.1来说。ID3——信息增益解:1.首先计算经验熵H(D)*设X是一个取有限个值的离散随机变量,其概率分布为P(X=xi)=pi,i=1,2,...,nP(X=x_i)=p_i, i=1,2,...,nP(X=xi)=pi,i=1,2,...,n*则随机变量X的熵定义:H(X)=−∑i=1npilog2(pi)H(...原创 2019-09-06 21:29:43 · 2416 阅读 · 1 评论