论文泛读笔记《Neural Document Summarization by Jointly Learning to Score and Select Sentences》

本文提出了一种名为NEUSUM的新型模型,该模型能够同时进行句子的重要程度评分和摘要冗余度评估,解决了抽取式文档摘要任务中的关键挑战。NEUSUM采用端到端的训练方式,无需人工特征提取,实现了自动化的摘要生成过程。该模型在CNN/DailyMail数据集上表现出色,达到了state-of-the-art水平。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文章目录

0 摘要

此论文将句子打分与选择作为主要的任务而不仅是子任务, 使用分层编码器获取句子的分布式表示,作者将打分系统融入模型,根据前面的句子直接预测当前句的相对重要性。达到了CNN/Daily Mail数据集上的state-of-the-art(话说几乎看过的论文都是这么说的2333)

1 介绍

之前的传统方法已经有大量的句子打分与句子选择的应用(确实,可参考我前篇博文: Ranking Sentences for Extractive Summarization with Reinforcement Learning, 不过这篇论文采用了强化学习策略。)
重要的传统方法:

  • ILP(整数线性规划)方法将句子选择问题抽象为一个在某些限制下(例如长度)的优化问题。
  • Submodular functions: 同样是一种优化方法,从文档中找出一个最优的句子序列子集
  • 《A redundancy-aware sentence regression framework for extractive summarization》训练了两个神经网络并且使用了人工提取的特征,一个用于对句子重要程度进行排序,一个用于评估当前摘要的冗余程度

作者提出的模型: NEUSUM(将对句子重要程度排序与评估摘要冗余度两个任务组合为一个,并且训练方式为端到端的,没有任何人工干预的成分(话说NN的论文几乎都是end to end,这作者这几句话简直在扯))

本文贡献:
1 对于抽取式文档摘要任务,本文提出了联合句子评分与句子选择的模型
2 能端到端地训练模型,无需人工制作特征
3 达到了stoa(CNN/Daily Mail)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值