
半监督学习
文章平均质量分 78
2674222
这个作者很懒,什么都没留下…
展开
-
AEDA: An Easier Data Augmentation Technique for Text Classification阅读笔记
使用深度语言模型的DA很复杂,虽然有同义词词典,但还是会造成原始信息的丢失。使用BERT利用上下文的信息进行DA,通过使用双向网络在一个想要的位置用预测的词来替换原本的词。对于所有数据集,当数据集比较小的时候,增量的数量越多,效果提高越多,而完整的数据集仅提高了1%。ADEA是比EDA更加简单的一种数据增强方法,保留句子中单词的顺序,因此会得到相对更好的增强效果。由于数据集是经过获取后随机分成训练集和测试集的,所以可能会存在数据的不连续性,进而影响结果。比较了基于BERT进行EDA和ADEA的模型效果。原创 2023-07-13 23:18:51 · 188 阅读 · 0 评论 -
Tri-Training:Exploiting Unlabeled Data Using Three Classifiers阅读笔记
Tri-Training:Exploiting Unlabeled Data Using Three Classifiers阅读笔记本文提出了一种新的协同训练式半监督学习算法——三训练算法。该算法从原始标记样例集生成三个分类器。然后在三训练过程中使用未标记的示例对这些分类器进行改进。具体来说,在每一轮的三训练中,如果在一定条件下其他两个分类器的标记一致,则为一个分类器标记一个未标记的示例。原创 2023-06-27 21:55:22 · 178 阅读 · 0 评论