Hierarchical Transformers for Multi-Document Summarization笔记

多文档摘要与图关系学习
探讨了多文档摘要领域的最新进展,特别是图关系在文本摘要中的应用。文章提出了一种新的模型,能够学习文档间的潜在联系,通过图表示来增强摘要的质量。该方法在实验中表现出优越的性能,特别是在保留关键信息、忠实度、流畅性和简洁性方面。

学习文本之间的潜在联系

一、导论

提到了wikisum,尽管wikisum向抽象多文档摘要迈出了重要的第一步,但是:

  • 它仍然认为多个输入文档是连接的平面序列,不知道文档之间层次结构可能存在的关系

    • 选择搜索结果前10个,每个结果可能有重叠,用不同的方式表达同样的内容

    • 作者强调文档间的图关系(PageRank?)

      • 作者貌似要替换掉文档间的注意力机制计算

      • replacing inter-document attention

      with a graph-matrix computed based on the basis of lexical similarity or discourse relations

二、相关工作

end2end模型的难点:训练数据难获取。wiki引用的文档太长了。

提取操作
  • 基于单词与tf-idf权值的余弦相似度
  • 基于话语关系
  • 基于PageRank算法的几种变体
  • 基于句子嵌入和图卷积网络
抽象摘要操作

跟单文档不一样,多文档处理有如下方案:

  • model transfer (Zhang et al., 2018; Lebanoff and Liu, 2018)
    • 在单文档摘要数据上预先训练一个序列到序列模型,并在DUC(多文档)基准测试上进行微调
  • 无监督模型(靠重建句子等)
作者的创新

与wikisum的方法不同的是,我们使用了一个基于学习的排序器,我们的抽象模型可以分层地编码输入文档,具有学习跨文档的潜在关系的能力,并额外地将以众所周知的图表示形式编码的信息合并在一起。

三、模型

任务描述类似于wikisum

作者关注在encoder部分

段落排序

  • 用LSTM+embedding对标题和段落进行建模
  • 最大池化操作,获得固定长度表示
  • 最后,为了估计是否应该选择一个段落,我们使用了一个线性变换和一个sigmoid型函数

段落encoding

这部分其实是在Transformer里面常见的一层,用来获取位置信息,参考解释

w i j w_{ij} wij

HIVT(Hierarchical Vector Transformer for Multi-Agent Motion Prediction)是一种用于多智能体运动预测的分层向量变换器。该模型使用了向量变换器(Vector Transformer)的层级架构,用于对多智能体的运动轨迹进行预测。 HIVT模型旨在解决多智能体之间相互影响和合作的问题。在多智能体系统中,智能体之间的运动和行为往往会相互影响,因此准确预测智能体的运动轨迹变得非常重要。传统的方法往往难以捕捉到智能体之间的复杂相互作用和外部环境的影响,而HIVT模型通过分层向量变换器的架构,可以更好地捕捉到多智能体系统中的相互作用。 HIVT模型首先使用一个全局的向量变换器来处理整个多智能体系统的运动轨迹,以捕捉全局的趋势和相互作用。然后,对于每个智能体,模型使用一个局部的向量变换器来预测其个体的运动轨迹,以考虑个体特定的动态特征和周围智能体的影响。 通过分层向量变换器的架构,HIVT模型能够更好地处理多智能体系统中的动态变化和相互作用,提高了运动轨迹预测的准确性。同时,该模型还可以应用于多个领域,如智能交通、无人机团队协作等。 总而言之,HIVT模型是一种基于分层向量变换器的多智能体运动预测方法,通过捕捉多智能体系统中的相互作用和全局趋势,提高了运动轨迹预测的准确性和适用性。该模型在多个领域具有广泛的应用前景。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值