免费链接: Blogger(需翻Q)
文章目录
论文信息
论文地址:https://arxiv.org/pdf/2210.17168.pdf
Abstract
论文提出了一种token-level的自蒸馏对比学习(self-distillation contrastive learning)方法。
1. Introduction
传统方法使用BERT后,会对confusion chars进行聚类,但使用作者提出的方法,会让其变得分布更均匀。
confusion chars: 指的应该是易出错的字。