低资源文本提取式摘要与图卷积协同过滤技术解析
在当今信息爆炸的时代,文本摘要和推荐系统是处理海量信息的重要工具。本文将介绍两种创新技术:用于低资源提取式文本摘要的对比释义方法(ParaSum),以及基于度感知嵌入和交互特征融合的图卷积协同过滤模型(Di - GCCF)。
低资源提取式文本摘要的ParaSum方法
在小数据集训练时,监督信号有限是一个常见问题。ParaSum就是为解决这一问题而提出的用于低资源场景的提取式摘要新范式。它将提取式摘要问题重新定义为候选摘要与文档之间的文本释义问题。
ParaSum的优势
- 缩小训练差距 :这种方法有助于减少摘要模型与预训练语言模型(PLMs)之间的训练差距,从而能从PLMs中有效检索相关知识,提升摘要性能。
- 区分优质摘要 :利用文本释义获得的知识,引导摘要模型在候选摘要中区分出高质量的摘要。
- 对比学习增强监督 :借助对比学习为模型训练提供额外的监督信号。
实验对比
通过对ParaSum和其他基线模型(BertExtSum、MatchSum)的用例研究(均使用CNN/DailyMail的1000个样本进行训练),可以看出不同模型的特点,具体如下表所示:
| 模型 | 摘要内容 |
| ---- | ---- |
| 参考摘要 | 1. 美国女性从名人那里获取发型灵感,往往对美容程序的潜在危险缺乏了解
2. 许多戴假发的名人,如碧昂丝、赛琳娜·戈麦斯
超级会员免费看
订阅专栏 解锁全文
1120

被折叠的 条评论
为什么被折叠?



