前一篇文章,介绍了有界实损失函数下的机器学习ERP原则一致性的充分条件,从无限指示损失函数集推广到了有界实损失函数集。
本文将介绍实无界损失函数集上的一致收敛的条件;同前文,无界实损失函数集记为:{Q(x;θ)|θ∈Λ}。
记:
R(θ)=∫RmQ(x,θ)dF(x)
Rexp(X,θ)=1n∑ni=1Q(xi,θ)X代表任意一个样本集,有
目标是分析:
无界实损失函数上的大数定理
先讨论实损失函数∫Rm|Q(x,θ)|dF(x)=B(θ)≤B<∞是有界实函数,从Lebesgue积分角度来看R(θ)。
重新表述一下∫RmQ(x,θ)dF(x):
∫RmQ(x,θ)dF(x)=liml→∞1l(∑∞i=1P{Q(x,θ)>il}+∑−∞i=−1P{Q(x,θ)<il})
对于Rexp(X,θ),同样我们有:
1n∑nk=1Q(xk,θ)=liml→∞1l(∑∞i=1v{xk:Q(xk,θ)>il}+∑−∞i=−1v{xk:Q(xk,θ)<il})
定义表达式:
定义事件Ai:{H(x,θ,i/l)<ε},∀i∈N,l∈N+.
若对于任意的∀i∈N,∀l∈N+都有Ai成立,即supθ∈Λ,i∈NH(x,θ,i/l)<ε则有:
由上面的讨论可以得知:
事件{supθ∈Λ,θ∈RH(x,θ,i/l)<ε}发生蕴含事件{∣∣∣∫RmQ(x,θ)dF(x)−1n∑nk=1Q(xk,θ)∣∣∣<2εB}必将发生。
不防假设当β∗>0时,下面的表达式H(x,θ,β∗)取得上确界:
H(x,θ,β∗)=supθ∈Λ,β∈R∣∣∣P{Q(x,θ)>β}−v{xk:Q(xk,θ)>β}∣∣∣P{|Q(x,θ)|>β}
当然也可以取β<0时,H(x,θ,β)取得上确界,不影响后面的讨论。
根据互补事件概率计算,得到:
其中0<α=P{|Q(x,θ)|>β∗}≤1,β∗∈R
这样,我们将有界实函数转化到指示损失函数I(x,θ,β)=1{Q(x,θ)−β}上,不过增加了一个参数β,根据指示损失函数上的结论,得到下面的不等式:
于是有下面的定理:
定理4:在无界实损失函数集Q(x,θ)上,函数集满足∫Rm|Q(x,θ)|dF(x)=B(θ)≤B<∞,存在0<α≤1,∀ε>0,期望风险和经验风险满足如下不等式:
推论4:在实损失函数集|Q(x,θ)|上,统计学习机期望风险与经验风险一致双边收敛的充分条件是:
经将界实损失函数转化到指示损失函数上的方法,找到了在实损失函数集期望风险和经验风险双边一致收敛的充分条件。
651

被折叠的 条评论
为什么被折叠?



