前面的文章介绍了统计学习的一般模型,并且介绍了关键定理,关键定理中ERP原则一致性与经验风险期望风险的单边收敛是等价的。双边一致收敛比单边一致收敛更严格,后面将介绍双边一致收敛的证明,最后回到单边收敛。
笔者在阅读统计学习理论的时候,充分领略到了Vapnik大师深厚的分析学功底,阅读这种长篇分析学公式是非常困难的,所以本人在想,能不能让证明更加简单点?但是这也不是一个容易的工作。
本文将介绍指示函数集上的一致收敛的条件。
为了区别将前文中的损失函数集{L(x;θ)|θ∈Λ}{L(x;θ)|θ∈Λ}改记为指示损失函数集为:
{I(x;θ)|θ∈Λ};I(x;θ)=0or1{I(x;θ)|θ∈Λ};I(x;θ)=0or1。
假设:P(I(X;θ)>0)=pP(I(X;θ)>0)=p则有:
记vn=Rexp(X,θ)vn=Rexp(X,θ),XX代表任意一个样本集,有个样本。
目标是分析下式成立的条件:
最简单的情况
若损失指示函数的参数θ∈Θ={θ1,θ2,..,θl}θ∈Θ={θ1,θ2,..,θl}是有限集合。事实上这就是mm维随机变量上的贝努利大数定理;不过我们这里不关注这个,我们关注的是选定每个,
收敛的界,其实在大数定理我们已经知道他的一个界sn;|s|<1sn;|s|<1,下面用到另外一个界。
Chernoff界:
设有Yi,i=1..nYi,i=1..n独立同分布的随机变量,服从参数为pp的贝努利分布,则有对任意的有:
P(p−vn>ε)P(vn−p>ε)<e−ε2n2<e−ε2n3(10)(11)(10)P(p−vn>ε)<e−ε2n2(11)P(vn−p>ε)<e−ε2n3
应用Chernoff界,就有:
于是得到下面的不等式:
注意到0<m<∞0<m<∞,所哟必然有limn→∞ln(m)n=0limn→∞ln(m)n=0,于是(2)式成立。
定理1:在有限指示损失函数集{L(x;θ)|θ∈Θ}{L(x;θ)|θ∈Θ}下面的不等式成立:
推论1: 在有限指示损失函数集{L(x;θ)|θ∈Λ}{L(x;θ)|θ∈Λ}上,下式恒成立,
由上面的讨论,我们知道了在有限的指示损失函数集上,统计学习模型是ERP原则一致的。
推广思路:
若m=∞m=∞将导致limn→∞ln(m)nlimn→∞ln(m)n无意义,显然不能直接推广到无限的指示损失函数集上。
不过仔细检查一下上面的证明,就可以发现两件事:
- R(θi)R(θi)和Rexp(X,θi)Rexp(X,θi)是不太敏感的,对于某些参数表达式∣R(θi)−Rexp(X,θi)∣∣R(θi)−Rexp(X,θi)∣的值可能相同。
- 若如上一条所说,我们将可以缩小(2)(2)式中的mm,将这些值相同的合并。
从这条思路出发,我们需要考虑一下统计学习模型,参数在什么情况下导致∣R(θi)−Rexp(X,θi)∣∣R(θi)−Rexp(X,θi)∣的值相同?
假定统计学习模型中样本的分类器是l(x,θ)l(x,θ),且有以下指示损失函数:
对于任意的含有nn个样本的集合,最多有方中划分方法,记2X={S|S⊂X}2X={S|S⊂X},可以对XX的所有子集进行编号。
从样本集划分的角度来看,任意nn个样本,未必能按照全部可能的方式划分开来,二维平面上的直线,最多只能将三个样本完全区分开,四个样本有14种分法而不是16种。这种将样本区分开来的能力,是统计学习模型的一个很重要的参数。记是模型能将指定样本HH划分开的数量的最大值。
先做些基础准备工作:
定义:
若某个Λ(Si)=ϕΛ(Si)=ϕ则表示统计学习模型不存在这样分割。
由上面的定义可知,I(x,θ1)=I(x,θ2)∀θ1,θ1∈ΛSi,x∈X,i=1..NΛ(n)I(x,θ1)=I(x,θ2)∀θ1,θ1∈ΛSi,x∈X,i=1..NΛ(n).
因此属于同一个分割的所有参数,表达式∣R(θ)−Rexp(X,θ)∣∣R(θ)−Rexp(X,θ)∣的值相同,即下面的引理成立:
引理1: 给定样本X,∀θi1,θi2∈Λ(Si),i=1..NΛ(n)X,∀θi1,θi2∈Λ(Si),i=1..NΛ(n)下式成立:
到这儿,我们已经将无限指示损失函数集与样本样本联系起来,得到了∣R(θ)−Rexp(X,θ)∣∣R(θ)−Rexp(X,θ)∣只有限个值。
下面估计无限指示损失函数集上(1.1)(1.1)式的界。
我们仍然可以应用Chernoff界,任意给定的θ∗∈Λθ∗∈Λ有
因此有:
记:HΛvc(n)=ln(NΛ(X))HvcΛ(n)=ln(NΛ(X)),HΛvc(n)HvcΛ(n)在文献中称为VC熵,(3)(3)可以表示为:
上面的讨论实际上证明了下面的定理:
定理2:在无穷指示损失函数集{L(x;θ)|θ∈Λ}{L(x;θ)|θ∈Λ}下面的不等式成立:
P(supθ∈Λ∣R(θ)−Rexp(X,θ)∣≥ε)<2exp((HΛvc(n)n−ε22)n)P(supθ∈Λ∣R(θ)−Rexp(X,θ)∣≥ε)<2exp((HvcΛ(n)n−ε22)n)
推论2: 在无穷指示损失函数集{L(x;θ)|θ∈Λ}{L(x;θ)|θ∈Λ}上,下式:
成立的充分条件是:limn→∞HΛvc(n)n=0limn→∞HvcΛ(n)n=0
写一段废话
这个结论与Vapnik大师在统计学习理论书中略有不同,Vapvik的界是:2exp((HannΛ(2n)n−ε22)n)2exp((HannΛ(2n)n−ε22)n) ,其中HΛann(2n)HannΛ(2n)是退火熵,而且有HΛann(2n)<HΛvc(2n)HannΛ(2n)<HvcΛ(2n),但是同时又有:HΛvc(n)<HΛvc(2n)HvcΛ(n)<HvcΛ(2n),那个结论更好难分清楚。不过要想弄清楚增长函数的性质,Vapnik大师的在书里给出了证明,其中用到了退火熵。
话又说回来,很多时候,想读懂一本书,要抽出其主线,把主线弄清楚,其余内容容易把我们引入歧途。此系列的博客其实只想弄清楚期望风险与经验风险双边一致的证明过程,也就是读懂只是想看懂泛函上的大数定理,其他的不重要。