熵-entropy

熵用于度量空间大小,这里只考虑函数类G

Q为空间(X,A)的测度,定义距离空间

Lp(Q)={g:XR:|g|pdQ<}

可以记||g||pp,Q=|g|pdQ,gLp(Q)

Lp(Q)距离下的熵:

对于δ>0,存在函数集{g1,g2,...,gN}s.t.对任意的gG存在j{1,2,...,N}使得

||ggj||p,Q

Np(δ,G,Q)为满足上述条件的最小的N,称作δ覆盖数.

Hp(δ,G,Q)=logNp(δ,G,Q)为空间GLp(Q)距离下的δ.

NOTE:若Hp(δ,G,Q)<对所有的δ>0,则称G完全有界的,从而G的闭包是的.


Lp(Q)距离下带括号的熵:

对于δ>0,存在函数对的集{[gLj,gUj]}Nj=1,||gUjgLj||p,Qδs.t.对任意的gG存在j{1,2,...,N}使得

gLjggUj

NpB(δ,G,Q)为满足上述条件的最小的N,称作带括号的δ覆盖数.

HpB(δ,G,Q)=logNpB(δ,G,Q)为空间GLp(Q)距离下带括号的δ.


Bernstein 距离:记

ρ2K(g)=2K2(e|g|/K1|g|/K)dP,K>0

ρK(g1g2)g1,g2之间的Bernstein 距离.

带括号的广义熵:Bernstein 距离下带括号的熵
对于δ>0,存在函数对的集{[gLj,gUj]}Nj=1,ρK(gUjgLj)δs.t.对任意的gG存在j{1,2,...,N}使得

gLjggUj

NpB(δ,G,P)为满足上述条件的最小的N,称作带括号的δ覆盖数.

HpB(δ,G,P)=logNpB(δ,G,P)为空间G在:Bernstein 距离下带括号的δ.

(Entropy) 是信息论中的一个概念,用来衡量随机变量的不确定性。在机器学习中,我们通常使用交叉 (Cross-Entropy) 作为损失函数,用来衡量模型预测结果与实际结果之间的差异。 以下是一些关于和交叉的基本概念和公式。 ## (Entropy) 是一个概率分布的度量,它表示随机变量的不确定性。对于一个离散的随机变量 $X$,其的数学定义为: $$H(X)=-\sum_{x\in X}p(x)\log_2p(x)$$ 其中,$p(x)$ 表示随机变量 $X$ 取值为 $x$ 的概率,$\log_2$ 表示以 2 为底的对数。 可以看出,当 $p(x)$ 的分布越均匀(即所有 $x$ 的概率都相等)时,的值最大,达到 $H(X)=\log_2|X|$;当 $p(x)$ 的分布越集中在某些特定的取值上时,的值越小。 ## 交叉 (Cross-Entropy) 交叉是用来衡量模型预测结果与实际结果之间的差异的一种损失函数。对于一个离散的随机变量 $Y$,其真实分布为 $p(Y)$,模型预测的分布为 $q(Y)$,则交叉的数学定义为: $$H(p,q)=-\sum_{y\in Y}p(y)\log_2q(y)$$ 可以看出,当模型的预测结果与真实结果越接近时,交叉的值越小。 ## 交叉在机器学习中的应用 在机器学习中,我们通常使用交叉作为分类模型的损失函数。对于一个分类问题,我们需要将输入 $x$ 分类到 $k$ 个类别中的一个,并且每个类别都对应一个概率值 $p_i$,表示输入 $x$ 属于第 $i$ 个类别的概率。设模型的预测结果为 $q_1,q_2,...,q_k$,表示输入 $x$ 属于每个类别的概率预测值,则其交叉的数学定义为: $$H(p,q)=-\sum_{i=1}^kp_i\log_2q_i$$ 我们的目标是最小化交叉,使得模型的预测结果尽可能接近真实结果,从而提高模型的准确率。 以上就是关于和交叉的基本概念和公式,希望能对你有所帮助。
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值