
机器学习
zouxiaolv
踏实、稳重、前行
展开
-
最大似然估计中的“似然”如何解释?
最大似然估计中的“似然”如何解释? - 知乎一文理解机器学习中的极大似然估计(MLE) - 知乎转载 2021-10-07 08:56:06 · 412 阅读 · 0 评论 -
EM算法和混合高斯算法的参数估计
https://blog.youkuaiyun.com/u014540876/article/details/79115805/(混合高斯各个参数的求解)期望最大化算法(EM算法) - 知乎(EM算法详解)高斯混合模型与EM算法的数学原理及应用实例 - 知乎转载 2021-10-06 18:38:03 · 215 阅读 · 0 评论 -
什么是beta分布,狄利克雷分布
zhuanlan.zhihu.com/p/24555092转载 2021-08-31 09:47:28 · 202 阅读 · 0 评论 -
变分编码器
1、变分编码器损失函数的推导入门讲解变分编码器是什么变分编码器进入损失函数推导阶段对于变分编码器采样的解释关于重参数讲解比较好的2、(代码)pytorch完成的变分编码器pytorch完成的变分编码器https://zhuanlan.zhihu.com/p/254019283、变分编码器的扩展应用聚类...原创 2020-05-05 14:39:49 · 264 阅读 · 1 评论 -
变分自编码器VAE:原来是这么一回事 | 附开源代码
https://www.cnblogs.com/xueqiuqiu/p/7605796.html(代码pytorch)https://zhuanlan.zhihu.com/p/22464760https://zhuanlan.zhihu.com/p/34998569https://zhuanlan.zhihu.com/p/25401928原创 2020-04-23 21:39:13 · 355 阅读 · 1 评论 -
判别模型与生成模型的区别
http://blog.youkuaiyun.com/zouxy09/article/details/8195017生成模型可以转换成判别模型,但判别模型不能推出生成模型;因为生成模型需要大量的训练数据集,很多很多的训练数据集,才可以生成训练数据集的样本分布p(X),而判别模型训练数据集是有限的,因此不能生成可靠的训练数据集分布p(x),也就不能根据贝叶斯公式推出后验概率。...转载 2020-04-16 19:14:28 · 228 阅读 · 0 评论 -
损失函数与代价函数区别
各种损失函数的优缺点详解损失函数或者代价函数的目的是:衡量模型的预测能力的好坏。损失函数(Loss function):是定义在单个训练样本上的,也就是就算一个样本的误差,比如我们想要分类,就是预测的类别和实际类别的区别,是一个样本的哦,用L表示。代价函数(Cost function):是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均,有没有这个平...原创 2019-10-24 16:44:18 · 9260 阅读 · 0 评论 -
activate learning(主动学习)
https://zhuanlan.zhihu.com/p/38029108 https://www.jianshu.com/p/42801f031cfa http://active-learning.net/(有关主动学习网址) https://blog.youkuaiyun.com/houchaoqun_xmu/article/details/80146710(写主动学习比较好的博客) https:...原创 2019-10-23 09:26:24 · 1704 阅读 · 0 评论 -
机器学习——PCA降维(我至今为止遇见的最好的博文)
参考文章:https://zhuanlan.zhihu.com/p/77151308PCA(Principal Component Analysis) 是一种常见的数据分析方式,常用于高维数据的降维,可用于提取数据的主要特征分量。PCA 的数学推导可以从最大可分型和最大重构性两方面进行,前者的优化条件为划分后方差最大,后者的优化条件为点到划分平面距离最小。由于基于最大重构性的 PCA 其与...转载 2019-09-07 11:05:25 · 57655 阅读 · 12 评论 -
mark一波——度量学习(metric learning)
度量学习(MetricLearning)度量(Metric)的定义在数学中,一个度量(或距离函数)是一个定义集合中元素之间距离的函数。一个具有度量的集合被称为度量空间。1为什么要用度量学习?很多的算法越来越依赖于在输入空间给定的好的度量。例如K-means、K近邻方法、SVM等算法需要给定好的度量来反映数据间存在的一些重要关系。这一问题在无监督的方法(如聚类)中尤为明显...原创 2019-09-03 08:43:14 · 583 阅读 · 0 评论 -
python3 SVM训练load Iris.data数据集,以及出现报错key words: b'Iris-setosa'解决办法
# -*- coding:utf-8 -*-# -*- coding:utf-8 -*-from sklearn import svmimport numpy as npimport matplotlib.pyplot as pltimport matplotlib as mplfrom matplotlib import colorsfrom sklearn.model_sele...原创 2019-09-03 08:01:34 · 911 阅读 · 0 评论 -
mark一下——支持向量机
https://blog.youkuaiyun.com/v_JULY_v/article/details/7624837转载 2019-08-29 16:07:35 · 153 阅读 · 0 评论 -
Python数据分析(三)——数据预处理
写这篇文章的原因是在很多程序时都会出现数据集预处理,为什么要进行数据归一化,为什么要规约,这些困扰很久,今天就数据集预处理总结比较的好的博客文章搬过来。https://gofisher.github.io/2018/06/22/%E6%95%B0%E6%8D%AE%E9%A2%84%E5%A4%84%E7%90%86/规范化数据规范化(归一化)处理是数据挖掘的一项基础工作。...原创 2019-08-29 10:24:26 · 768 阅读 · 0 评论 -
机器学习中——感知机中
不考虑的原因有两点:1:恒为正,不影响 正负的判断,也就是不影响学习算法的中间过程。因为感知机学习算法是误分类驱动的(只有当出现误分类时才去调整模型,或者说损失函数只与误分类点有关),这里需要注意的是,所谓的“误分类驱动”指的是我们只需要判断 的正负来判断分类的正确与否,而并不影响正负值的判断,所以对感知机学习算法的中间过程可有可无。2、不影响感知机学习算法的最终结果,因...原创 2019-04-08 22:17:24 · 175 阅读 · 0 评论 -
机器学习的学习过程与进阶
https://github.com/apachecn/AiLearning原创 2019-04-24 10:16:59 · 214 阅读 · 0 评论 -
支持向量机理解
https://blog.youkuaiyun.com/v_JULY_v/article/details/7624837转载 2019-07-08 08:21:37 · 217 阅读 · 0 评论 -
理解logistic回归原理解释
需要的知识储备:概率论中的——似然函数求解数学的求导公式——以及倒数求导。1. logistic分布的概念,如下图分布其实就是概率值。logistic分布为什么常用呢?因为它的分布曲线,在中心附近增长很快,而在两端增长很慢。这就是说,若以概率0.5(中心点z=μ处的分布概率)为分界点,大于μ的点为一类,小于μ的点为另一类,那么,我们能很好很快地把中心点附近的数据分类。基...原创 2019-07-08 10:17:35 · 2638 阅读 · 0 评论 -
one-hot向量编码
one-hot向量将类别变量转换为机器学习算法易于利用的一种形式的过程,这个向量的表示为一项属性的特征向量,也就是同一时间只有一个激活点(不为0),这个向量只有一个特征是不为0的,其他都是0,使特征变得稀疏。举个人的特征,比如:“性别”这个人的特征,性别有“男性”、“女性”,这个特征有两个特征值,也只有两个特征值,如果对这个特征进行one-hot编码,则特征值为“男性”的编码为“10”,“女性...转载 2019-07-02 20:27:48 · 1676 阅读 · 0 评论 -
特征工程专题
https://blog.youkuaiyun.com/Datawhale/article/details/83033869转载 2019-07-18 08:25:41 · 162 阅读 · 0 评论 -
核函数&径向基核函数 (Radial Basis Function)--RBF
https://blog.youkuaiyun.com/huang1024rui/article/details/51510611https://www.cnblogs.com/jerrylead/archive/2011/03/18/1988406.html(核函数)转载 2019-07-25 09:53:19 · 1003 阅读 · 0 评论 -
如何区分并记住常见的几种 Normalization 算法
https://zhuanlan.zhihu.com/p/69659844转载 2019-07-26 15:33:19 · 223 阅读 · 0 评论 -
相对熵,kl散度
内容解释博客https://blog.youkuaiyun.com/ACdreamers/article/details/44657745https://blog.youkuaiyun.com/chdhust/article/details/8506260python代码实现相对熵https://blog.youkuaiyun.com/hfut_jf/article/details/71403741https:/...原创 2019-08-02 09:45:22 · 218 阅读 · 0 评论 -
k-means 聚类
https://blog.youkuaiyun.com/huangfei711/article/details/78480078https://blog.youkuaiyun.com/taoyanqi8932/article/details/53727841原创 2019-08-28 21:47:22 · 230 阅读 · 0 评论 -
机器学习研究比较好的大牛
https://zhuanlan.zhihu.com/p/35940466原创 2018-11-12 16:04:05 · 893 阅读 · 0 评论