机器学习中的不确定性采样与多样性采样策略
1. 不确定性采样
1.1 进一步阅读资源
不确定性采样已经存在很长时间,有许多相关的优秀文献。对于最前沿的研究,可以查找那些被频繁引用的近期论文。需要注意的是,大多数论文不会将分数归一化到 [0, 1] 范围。如果要将模型部署到实际场景中,强烈建议对输出进行归一化。即使归一化不会改变准确性,但会使抽查更容易,并防止下游处理出现问题。
以下是不同类型不确定性采样的早期优秀论文:
| 采样类型 | 论文标题 | 论文链接 |
| ---- | ---- | ---- |
| 最小置信度采样 | “Reducing labeling effort for structured prediction tasks” | http://mng.bz/opYj |
| 置信度边际采样 | “Active Hidden Markov Models for Information Extraction” | http://mng.bz/nMO8 |
| 置信度比率采样 | 暂未找到相关论文,但与置信度边际采样相关,可参考其文献 | 无 |
| 基于熵的采样 | “Committee-Based Sampling For Training Probabilistic Classifiers” | http://mng.bz/vzWq |
| 其他机器学习模型 | “A Sequential Algorithm for Training Text Classifiers” | http://mng.bz/4ZQg |
| 基于集成的不确定性采样 | “Deep Bayesia
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



