
数学
iteye_424
这个作者很懒,什么都没留下…
展开
-
最大似然估计
参考:设f(y, θ)为随机变量Y的概率密度函数(PDF),θ为该PDF的参数,Y1、Y2、…、Yn为观测到的一个随机样本,则θ的最大似然估计量(Maximum Likelihood Estimator简记为MLE)就是具有产生该观察样本的最大概率的那个θ估计量。换言之,θ的MLE是使密度函数f(y, θ)最大的那个θ的估计量。当我们对Yi的分布未做具体规定而在回归分析里被称为“弱...2009-10-21 22:53:34 · 182 阅读 · 0 评论 -
使用maple 计算梯度
一个梯度的图像。2009-12-09 23:43:26 · 916 阅读 · 0 评论 -
使用maple作图
几个极坐标图2009-12-03 20:06:22 · 1966 阅读 · 0 评论 -
如何证明两个网站的统计是有偏的还是无偏的?
由于不同的网站有不同的访问人群,因此可能一个网站的调查结果不能表明整个人群对一个事情的态度,而必须综合考虑多个网站的调查结果,才能证明整个人群对一个事件的调查结果。 需要证明。下面又两个图,不过还不能证明这个问题。...2009-11-29 10:53:42 · 174 阅读 · 0 评论 -
什么是统计学中的参数估计?
我们学习了概率,知道对于一个总体有一个分布,假设中国人的身高是一个正态分布。但是这个正态分布的参数(均值和方差)是不知道的,因此我们需要估计这两个参数。我们不可能统计所有中国人的身高,然后再计算这个参数。那么我们只能抽样,例如统计10万人的升高去估计着两个参数。在抽样的时候,必须放在抽样数据是有偏的,即与总体的分布不一致的。因此,需要慎重的考虑抽样的方法。得到样本之后,我们就可以估计整个分布...2009-11-26 22:07:11 · 1063 阅读 · 0 评论 -
Karhunen-Loeve Transform (KLT, KL变换)
酉矩阵http://zh.wikipedia.org/wiki/%E9%85%89%E7%9F%A9%E9%98%B5 在晶体学里,酉变换叫做幺正变换,也就是将空间(可以是任意维的)中一组基矢做一个旋转操作,不改变矢量的大小和内积。而在量子力学里面,这个用处就更大了,本质上就是量子力学所说的表象变换。是连接两个表象的桥梁。 酉矩阵可以对原始向量数据做一个旋转。 协方差...2009-11-17 15:09:14 · 819 阅读 · 0 评论 -
Mahalanobis Distance(马氏距离)
http://www.aiaccess.net/English/Glossaries/GlosMod/e_gm_covariance_matrix.htm马氏距离对normalized Euclidean distance的扩展。两种特殊情况:一:如果是单位矩阵If the covariance matrix is the identity matrix, the Mahalano...2009-11-15 23:24:01 · 256 阅读 · 0 评论 -
简单抽样算法介绍
我们要分析数据,当面对大量数据的时候,不可能每个数据都看一遍,就需要用到一些采样方法。通过采样得到的数据了解数据的规律和特征。 1、平均随机抽样 有10000个数据,任意随机抽取100条。2、分类抽样 有10000个数据,有10个类目,每类1000条,可以考虑每个种类抽取50条。 3、分类、按照百分比抽样 如果有10000个数据。假如是身高数据...2009-11-13 11:55:37 · 443 阅读 · 0 评论 -
超市购物分析、数字管理
统计每天的销售额;每天销售商品数量;每天商品购物人数;分布画出波动的曲线,让人一目了然。根据购物人数,调整收费人员的休息时间,在周末、节假日安排更多的人上班;在购物低谷的时候维修收费 pos 机器。分类商品数量、购物数量。超市热点分析、分析哪些位置是超市的热点,优化购物者行走路线。超市有没有死角?超市的有些地方我们从来都不会去的。提供商品陈列的依据。分析top消费类目,长尾的消费类...2009-11-10 22:58:10 · 163 阅读 · 0 评论 -
一句话的数学
线性空间有了范数,就能够计算两个向量的距离;有了距离就可以定义极限;有了极限就有收敛;同时也就有了cauchy不等式。做分类、聚类的时候,关键就是要找到一组特征,一个距离计算方法(即相似性计算方法);找到了这两点,一切就都OK了。一组特征必须要能够衡量两个对象a、b之间的距离;距离计算方法,必须要能够合适的表示两个对象的距离(相似性)。可列个可列集的并集仍然是可列集。注...原创 2009-12-24 09:01:31 · 160 阅读 · 0 评论