[抽取式文本摘要 ACL2019]Searching for Effective Neural Extractive Summarization: What Works and What’s Next

Zhong et al., (2019)ACL.

 

模块

sentence encoder: sentence representations 选什么基本没区别

document encoder: contextualized sentence representations

decoder:  extract a subset of sentences

    Sequence Labeling (SeqLab) non auto-regressive decoder

    Pointer Network (Pointer)  auto-regressive decoder

pre-trained word representations 

    context independent word embeddings :Word2Vec/GLOVE

    contextualized word embeddings :ELMo/BERT

 

结论

  1. 带有自回归decoder的模型(Pointer)更好。transformer不容易过拟合
  2. 句子位置信息很重要(positional embedding)
  3. 无监督预训练模型更好(BERT)
  4. 强化学习可以进一步提升

   LSTM + PN + BERT(feature-based)+ RL

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值