机器学习之参数估计

1.参数估计:矩估计

样本统计量

X1,X2XnX1,X2…Xn…

  • k阶样本中心矩 (k=2时即方差)
    Mk=1ni=1n(XiX¯¯¯¯)kMk=1n∑i=1n(Xi−X¯)k

1.1矩估计

那么随机变量的矩和样本的矩,有什么关系?
换个提法:假设总体服从某参数为θθ


假设样本是独立的
- 可以通过X1,X2XnX1,X2…Xn…

这个就是矩估计.
  • 我们设总体的均值为μμ


2.极大似然估计

贝叶斯公式带来的思考

给定某些样本DD

maxP(Ai|D)=maxP(D|Ai)P(Ai)P(D)maxP(Ai|D)=maxP(D|Ai)P(Ai)P(D)


  • 贝叶斯公式P(Ai|D)P(Ai|D)表示给定样本下,算分布的参数,看哪一组参数取得的概率最大。我们就认为哪一组参数是最有可能的。
通过上式,我们发现它近似等于,在给定参数下,哪一组参数能使样本数据最有可能的发生。颠倒了因果。我们把估计这个参数使得概率的方法称为极大似然估计

极大似然估计公式表达

  • 设总体分布为f(x,θ)f(x,θ),称之为极大似然估计

极大似然估计的具体实践操作

在实践中,为了求导方便,往往将似然函数取对数,若对数似然函数可导,可令导数等于0解方程组得到驻点,分析是否是极大值点。

logL(θ1,θ2,...θk)=i=1nlogf(x1;θ1,θ2,...θn)logL(θ1,θ2,...θk)=∑i=1nlogf(x1;θ1,θ2,...θn)
求偏导,解方程组。

应用:高斯分布的极大似然估计

  • 若给定一组样本X1,X2XnX1,X2…Xn
按照MLE的过程分析:
  • 高斯分布的概率密度函数:
    f(x)=12π−−√σe(xμ)22σ2f(x)=12πσe−(x−μ)22σ2
    值带入,得到:
    L(x)=i=1n12π−−√σe(xμ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值