Hoeffding不等式

在看统计学习方法证明泛化误差上界中提到使用Hoeffding不等式(霍夫丁不等式)

原书给了两个公式:

P\left ( S_{n}-ES_{n} \geqslant t\right )\leqslant exp\left ( \frac{-2t^{2}}{\sum_{i=1}^{n}(b_{i}-a_{i})^{2}} \right )

P\left ( ES_{n}-S_{n} \geqslant t\right )\leqslant exp\left ( \frac{-2t^{2}}{\sum_{i=1}^{n}(b_{i}-a_{i})^{2}} \right )​​​​​​​

另外参考博文里贴过来两个公式

很陌生,占个坑理解一下。

关于该不等式的原地址:Hoeffding's inequality

 

Hoeffding不等式指的是某个事件的真实概率与在伯努利试验中观察到的频率之间的差异

 

考虑到伯努利实验,该实验是在同样的条件下重复地、相互独立地进行的一种随机试验,其特点是该随机试验只有两种可能结果:发生或者不发生。比较熟悉的一种就是0-1分布,也叫两点分布。

用H(n)表示抛n次硬币正面向上的概率

则正面向上的次数不超过k的概率为

当k=(p-ε)n时,霍夫丁上界将会按照指数级变化,得到霍夫丁不等式

当k=(p+ε)n时

两式合并,得到

得到

 

在《统计机器学习》中的Hoeffding的公式好像有很多的版本。 

证明实在没看懂,就依据例子简单的了解一下吧。

 

不少博客举到一个从小罐中里摸小球的例子,从一个装有绿色和黄色的罐子里随机地摸出小球,根据摸出小球的概率来估计整个罐子中绿色球和黄色球的所占的比例。

那么当抽出的样本数越多,最终预测出的绿球占整个罐子中小球的概率u会越趋近于实际罐子中绿色小球占整个罐子小球的概率v。

所以就有了霍夫丁不等式,在一个含有N个样本数(N足够大)的数据集中,在误差允许的范围内,u和v可以不断地靠近。左侧的概率随着N的增大而减少,所以,要减少预测和实际之间的误差,就要增大样本数量。

 

附一张参考博文2里的图,不做多的解释。

 

参考博文:

1、机器学习数学原理(8)——霍夫丁不等式 对原英文文章的翻译

2、[机器学习][2]--霍夫丁不等式 

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

故沉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值