AI知识基础笔记

KL散度是衡量两个概率分布差异的非对称指标,常用于信息论和机器学习。它表示使用分布Q近似真实分布P时的信息损失。文章提及VGG16, Resnet50和Inception-V3等深度学习模型。" 111951969,10297172,锐捷上网认证问题及解决方案,"['网络认证', '锐捷路由器', '网络故障排查', '网络连接问题', '802.1x认证']

在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。

VGG16

 



Resnet50  Bottleneck3463
 



Inception-V3


 

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值