
机器学习
文章平均质量分 78
dengpei187
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
N-Gram 模型
N-Gram是大词汇连续语音识别中常用的一种语言模型。在语音识别中,对中文而言,我们称之为汉语语言模型(CLM, Chinese Language Model)。汉语语言模型利用上下文中相邻词间的搭配信息,在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成汉字串(即句子)时,可以计算出具有最大概率的句子,从而实现到汉字的自动转换,无需用户手动选择,避开了许多汉字对应一个相同的拼音(或笔划转载 2016-07-05 14:50:38 · 2046 阅读 · 0 评论 -
最大似然估计
原理举例离散分布离散有限参数空间离散分布连续参数空间连续分布连续参数空间小结原理给定一个概率分布D,假定器概率密度函数(连续分布)或概率质量函数(离散分布)为 fDf_D,以及一个分布参数 θ\theta,我们可以从这个分布中抽取一个具有n个值的采样 X1,X2,...,XnX_1,X_2,...,X_n,通过利用 fDf_D,我们就能计算出其概率:P(x1,x2,...,xn)=fD(x转载 2016-07-06 08:46:28 · 2700 阅读 · 0 评论 -
最小二乘法
注意:本文主要引用维基百科。概念最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。举例例如最简单的一次函数y=kx+b,已知坐标轴上已知点(1,6),(2,5),(3,7),(4,10),求经过这些点的图象的一次函数关系式。当然这条直转载 2016-07-06 10:50:12 · 2717 阅读 · 0 评论 -
梯度下降法(Gradient Descent)
梯度下降法(通常也称为最速下降法)是一个一阶最优化算法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点,这个过程则被称为梯度上升法。转载 2016-07-06 15:50:12 · 14630 阅读 · 0 评论 -
spark安装具体步骤
最近,在大波面试来袭的时候,我默默的在这钻研spark的安装,以前的linux的基础知识都忘得差不多了,所以安装起来比较麻烦,于是写下这篇安装博文,希望有用。转载 2016-08-23 09:47:41 · 9060 阅读 · 1 评论