
Sundry
文章平均质量分 73
Hansry
我希望能有个明亮的落地窗,每天都晒一晒太阳。。。
展开
-
teamviewer解决商业检测问题
1.卸载teamviewersudo apt --purge remove teamviewer2.改变电脑enp4s0f1sudo ifconfig enp4s0f1 downsudo ifconfig enp4s0f1 hw ether 2c:2d:a1:c7:4e:3dsudo ifconfig enp4s0f1 up3.重装teamviewersudo dpkg -i t...原创 2019-05-09 22:57:29 · 365 阅读 · 0 评论 -
The Simplest Classifier: Histogram Comparison (最简单的分类器:直方图比较)
一. Introduction几何上的线索 (Geometrical cues)是最靠谱的一种方式来估计一个物体的身份。毕竟而言,我们可以从一张黑色或白色的图片中来识别出里面的椅子,不需要任何的颜色和纹理。然而这种方法并不经常适用。在自然界中有很多的例子表明通过颜色可以很好的确定物体的种类,如水果(Fruits),矿物质(Minerals)等等。在我们的文明中,具有特色的颜色经常被用来当做商标...翻译 2018-05-14 20:25:49 · 2499 阅读 · 0 评论 -
使用手势跟踪玩转谷歌小恐龙游戏 (Playing the Google Chrome's dinosaur game using hand-tracking)
今天我在OpenCV找一些鲁棒/快速的方式来进行手的跟踪。刚开始我将注意力放在了分类器上面,诸如:Haar cascade、Convolutional Neural Networks、SVM 等等。但是不幸的是这些方法有俩个主要的问题是:滑动窗口(sliding window)和 数据集 (dataset)。为了分类图像中的一部分,经常会用到一个常用的方法那就是sliding windo...翻译 2018-05-17 16:33:02 · 3841 阅读 · 0 评论 -
K-近邻算法(kNN)
一.工作原理前提:存在一个样本数据集合,也称为训练样本集,并且每个样本集每个数据都贴有标签,即我们知道样本集中的每一个数据与其所属分类的对应关系。实现过程:输入没有标签的新数据后,将新数据的每个特征与样本集数据中数据对应特征(这里的特征具体指什么?距离?)进行比较,然后算法提取样本集中特征最相似数据的分类标签。一般来说,我们会选择样本集数据其中前k个最相似的数据,通常k是不大于20的整数。输入输出:原创 2017-10-02 17:00:32 · 809 阅读 · 0 评论 -
决策树
一.创建分支的伪代码函数createBranch()如下所示:If so return 类标签:Else 寻找划分数据集的最好特征 创分数据集 创建分支节点 for 每个划分的子集 调用函数createBranch()并增加返回结果到分支节点中 return 分支节点**其实createBranch是一个递归函数,在倒数第原创 2017-10-03 21:02:46 · 421 阅读 · 0 评论 -
Laplace distribution (拉普拉斯分布)
在概率论和统计学中,拉普拉斯是一种连续概率分布。由于它可以看做是俩个不同位置的指数分布背靠背拼在一起,所以它也叫做双指数分布。如果随机变量的概率密度函数分布为:那么他就是拉普拉斯分布。u为位置参数,b>0是尺度参数。与正态分布相比,正态分布是用相对于u平均值的差的平方来表示,而拉普拉斯概率密度用相对于差的绝对值来表示。因此,拉普拉斯的尾部比正态分布更加平坦。用matlab给出拉普拉斯分布的绘图:原创 2017-12-26 15:05:34 · 23596 阅读 · 0 评论 -
基于梯度的优化方法
1.优化指的是改变x以最小化或最大化的某个函数f(x)的任务我们通常以最小化f(x)指代大多数最优化问题。最大化可经由最小化算法 -f(x) 来实现。我们希望最小化或最大化的函数叫目标函数,当我们对其进行最小化的时候,也叫作代价函数或损失函数或误差函数。我们经常使用一个上标*表示最小化或最大化函数的x值: , 我们通过改变x的值来最小化或者最大化函数f(x)的值。 2. 微积分概念如何于优化联系呢?原创 2017-09-04 23:29:22 · 7306 阅读 · 0 评论 -
上溢和下溢 & 病态条件数
1.上溢和下溢计算稳定性特指模型运算性能的鲁棒性,举个栗子,如果我们让整数型的变量来存储一个浮点型变量,那么我们会损失精度。溢出是代表内容超过了容器的极限。在机器学习中,因为我们大量的使用概率,而概率往往是在0和1之间,导致了下溢发生的可能性大大提高。举个栗子,我们常常需要将多个概率相乘,假设每个概率 ,则P=像这种情况下,计算机无法分辨是0和一个极小数之间的区别。在这种情况下,下溢可能导致模型直接原创 2017-09-04 22:05:46 · 5261 阅读 · 0 评论 -
概率与信息论基础
1.前言几乎所有的活动都需要能够在不确定性存在时进行推理,除了数学的定理外,很难确定某个命题是真的。 不确定性有三种可能: 1.被建模系统内在的随机性。亚原子粒子的动力学描述为概率性的。 2.不完全检测。不能观测到所有驱动系统行为的变量,从三张图片中选择指定的图片,结果不确定。 3.不完全建模。当我们必须舍弃某些观测信息模型时,舍弃的信息会导致模型的预测出现不确定性。机器人轨迹,当我们离散化原创 2017-09-02 12:56:42 · 12518 阅读 · 1 评论