十篇顶会精通置信度校准,助力可信+Ai应用

📚【推荐】:
[1] Obtaining well calibrated probabilities using bayesian binning. 2015年发表, 提出贝叶斯分箱校准方法,将置信度分箱与贝叶斯统计进行结合。

[2] On calibration of modern neural networks. 2017年发表,提出温度放缩校准方法,因简单有效被广泛应用。

[3] Beyond temperature scaling: Obtaining well-calibrated multi-class probabilities with dirichlet calibration. 2019年发表,提出class-wise calibration的概念,并提出Dirichlet calibration.

[4] Mix-n-Match: Ensemble and Compositional Methods for Uncertainty Calibration in Deep Learning. 2020年发表的,研究canonical calibration,提出mix-n-match校准策略,并提出基于KDE的calibration metric.

[5] Verified uncertainty calibration. 2019年发表的,提出scaling-binning 校准方法,并从理论上证明了Debiased estimator(即ECE_Debiased)的准确性。

[6] Calibration of neural networks using splines.2020年发表的,提出基于Kolmogorov-Smirnov statistical test的calibration metric (KS-error),并提出基于spline-fitting的校准方法。

[7] Mitigating bias in calibration error estimation. 2022年发表的,提出了ECE_sweep,并且为calibration metrics 的对比提供了具有参考性的模拟实验。

[8] A unifying theory of distance from calibration. 2023年发表的,为校准误差的度量提供了统一的理论框架,名为consistent calibration measure.

[9] Smooth ECE: Principled reliability diagrams via kernel smoothing. 2024年发表,提出了Smooth ECE,并证明了其是一个consistent calibration measure.

[10] Combining Priors with Experience: Confidence Calibration Based on Binomial Process Modeling. 2025年发表,提出结合置信度背后先验分布的校准方法和校准指标,并提出一种采用预定义的真实校准曲线合成校准数据的方法,可用于对比calibration metrics的优劣。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NeuroDong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值