- 博客(21)
- 资源 (6)
- 收藏
- 关注
转载 红黑树
转:https://www.cnblogs.com/skywang12345/p/3603935.htmlR-B Tree,全称是Red-Black Tree,又称为“红黑树”,它一种特殊的二叉查找树。红黑树的每个节点上都有存储位表示节点的颜色,可以是红(Red)或黑(Black)。红黑树的特性:(1)每个节点或者是黑色,或者是红色。(2)根节点是黑色。(3)每个叶子节点(NIL)是黑色。...
2019-07-08 14:24:16
155
原创 机器学习-隐马尔科夫模型
标注问题:标注也是一个监督学习问题。可以认为标注问题是分类问题的一个推广,标注问题又是更复杂的结构预测问题的简单形式。标注问题的输入是一个观测序列,输出是一个标记序列或者状态序列。标注问题的目的在于学习一个模型,使它能够对观测序列给出标记序列作为预测。标注问题分为学习和标注两个过程。学习过程:从训练数据学习条件概率分布;标注过程:对新的输入观测序列找到相应的输出标记序列。隐马尔科夫模型:是可用...
2019-06-02 21:56:28
303
原创 机器学习--降维与度量学习
维数灾难:高维数据情形下出现的数据样本稀疏,距离计算困难等问题是所有机器学习方法共同面临的严重障碍,被称为维数灾难。降维:亦称维数约简,即通过某种数学变换将原始高维属性空间转变为一个低维“子空间”,在这个子空间样本密度大幅提高,距离计算也变得更为容易。多维缩放(MDS):要求原始空间样本之间的距离在低维空间中得以保持。线性降维方法:z = w’X主成分分析(PCA):是最常用的一种...
2019-05-22 15:25:12
590
原创 机器学习-聚类
聚类:在无监督学习中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。聚类试图将数据集中的样本划分为若干个通常是不相交的子集。每个子集称为一个“簇”。性能度量:聚类性能度量也称聚类“有效性指标”。与监督学习中的性能度量作用相似。要求“簇内相似度高”,“簇外相似度低”。聚类性能度量大致有两大类:一类是将聚类结果与某个“参考模...
2019-05-20 22:43:42
292
原创 机器学习-集成学习
集成学习:通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统、基于委员会的学习等。同质集成中的个体学习器亦称为“基学习器”,相应的算法称为“基学习算法”。异质集成中的个体学习器由不同的学习算法生成,个体学习器称为“组件学习器”或直接称为个体学习器。如何产生“准确性高”、“多样性”的个体学习器,是集成学习研究的核心。根据学习器的生成方式,集成学习可以分为两类:即个体学习...
2019-05-16 22:34:17
605
原创 softmax 交叉熵
softmax函数,把评分归一化到0~1。概率分布p(x)的熵定义:在“真实”分布p(x)和估计分布q(x)之间的交叉熵定义:
2019-04-19 10:49:06
204
原创 git 常用命令
创建版本库mkdir insfan-git 创建git版本库目录git init 把这个目录变成Git可以管理的仓库git add readme.txt 把文件添加到仓库,把文件修改添加到暂存区git commit -m "wrote a readme ...
2019-04-17 14:51:50
140
原创 剑指offer编程-双指针
输入一个递增排序的数组和一个数字S,在数组中查找两个数,使得他们的和正好是S,如果有多对数字的和等于S,输出两个数的乘积最小的。 -----------------------首尾双指针。连续的正数序列的和 -------------首双指针。...
2019-04-16 14:53:36
166
原创 ubuntu常用命令
Linux系统主要目录及其内容目录 内容/bin 构建最小系统所需要的命令,最常用的命令/boot 内核和启动文件,包括一些连接文件以及镜像文件/dev 各种设备文件,在Linux中访问设备的方式和访问文件的方式是相同的/etc...
2019-04-16 11:26:33
203
原创 机器学习-支持向量机
支持向量机:是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器值,支持向量机的学习策略就是间隔最大化。支持向量机学习方法包括构建由简至繁的模型:线性可分支持向量机,线性支持向量机及非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化,学习一个线性分类器,及线性可分支持向量机,又称为硬间隔支持向量机。当训练数据近似线性可分时,通过软间隔最大化,也学习一个线性分类器...
2019-04-13 19:18:30
412
原创 机器学习-逻辑斯蒂回归与最大熵模型
逻辑斯蒂回归模型:一个事件的几率(odds):是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是p,那么该事件发生的几率是p/(1-p),该事件的对数几率(log odds)或logit函数是:logit(p)=log(p/(1-p))=wx。在逻辑斯蒂回归模型中,输出y=1的对数几率是输入x的线性函数。通过逻辑斯蒂回归模型可以将线性函数w*x转换为概率,这时线...
2019-04-09 21:41:31
453
原创 机器学习-AdaBoost
AdaBoost算法:1)提高那些被前一轮弱分器错误分类样本的权值,降低正确分类样本的权值。2)加权多数表决:加大分类误差率小的弱分类器的权值,减小分类误差率大的弱分类器的权值。AdaBoost算法的训练误差有上界:可以在每一轮选取适当的分类器,使训练误差下降最快。AdaBoost具有适应性:即能适应弱分类器各自的训练误差率,这是它名字的由来。AdaBoost算法的另一种解释:模型为加...
2019-03-28 17:06:05
234
原创 机器学习-决策树
决策树:是一种基本的分类与回归方法。在分类问题中,表示基于特征对实例进行分类的过程。学习时利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。决策树学习三个步骤:特征选择、决策树的生成和决策树的修剪。决策树:由节点和有向边组成。节点有两种类型:内部节点和叶节点。内部节点表示一个特征或者属性,叶节点表示一个类。在决策树算法中,寻找最优决策...
2019-03-22 17:24:21
190
原创 机器学习-朴素贝叶斯法
朴素贝叶斯法:基于贝叶斯定理和与特征条件独立假设的分类方法。注:朴素贝叶斯和贝叶斯估计是不同的概念。条件独立假设:用于分类的特征在类别确定的条件下都是条件独立的。朴素贝叶斯法的参数估计:极大似然估计或者贝叶斯估计朴素贝叶斯法是典型的生成学习方法。生成方法由训练数据学习联合概率分布p(x,y),然后求得后验概率分布P(y|x)。具体来说,利用训练数据学习条件概率p(x|y)和先验概率p(...
2019-03-06 16:20:53
208
原创 机器学习-k近邻法
k近邻法:是一种基本分类与回归的方法。给定一个实例,在训练数据中找到与该实例最邻近的k个实例,这k个实例的多数属于某个类,就把该实例分为这个类。k近邻的三要素:k值的选择,距离度量方式和分类决策规则。最近邻法:k=1时。k近邻法特点:没有显式的学习过程,使用的模型实际上对应于对特征空间的划分。单元(cell):特征空间中,对每个训练实例点,距离该点比其他点更近的所有点组成的的一个区...
2019-02-28 21:09:50
446
原创 机器学习-感知机
感知机:二分类线性分类模型;f(x) = sign(wx+b).感知机的损失函数:误分类点到超平面的总距离。感知的优化算法:随机梯度下降法;每次随机选择误分类的点使其梯度下降。当训练数据线性可分时,感知机学习算法原始形式跌代是收敛的。感知机学习算法存在许多解,这些解既依赖初值的选择,也依赖跌代过程中误分类点的选择顺序。感知机的对偶问题:跌代出每个样本的正确分类的次数,然后用对偶公式...
2019-02-27 16:58:43
226
原创 统计学习第一章相关概念
统计学习三要素:模型,策略,算法。模型:模型就是要学习的条件概率分布或决策函数。策略:按照什么样的准则学习或选择最优的模型。算法:学习模型的具体计算方法。损失函数和风险函数:损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。模型的假设空间:包含所有可能的条件概率分布或决策函数。经验风险或经验损失:模型f(x)关于训练数据集的平均损失。经验风险最小化(...
2019-02-26 18:33:38
185
原创 opencv 3.1 创建和使用SURF 的方法
需要包含的头文件和使用的命名空间#include using namespace xfeatures2d;创建和使用SURF函数Ptr surf = SURF::create();surf->detect(srcGrayImage, keyPoint);
2017-03-26 15:16:56
1104
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人