
text Summarization
文章平均质量分 94
抽象式/抽取式文本摘要生成
小小帅AIGC
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
文本摘要综述—从统计方法到大型语言模型综述介绍,原文阅读:A Systematic Survey of Text Summarization: From Statistical Methods to
随着深度神经网络、预训练语言模型 (PLM) 和最近的大型语言模型 (LLM) 的出现,文本摘要研究经历了几次重大转变。因此,本综述通过这些范式转变的视角,全面回顾了文本摘要的研究进展和演变。它分为两个主要部分:(1)详细概述 LLM 时代之前的数据集、评估指标和摘要方法,涵盖传统统计方法、深度学习方法和 PLM 微调技术;(2)首次详细研究 LLM 时代基准测试、建模和评估摘要的最新进展。通过综合现有文献并提出一个有凝聚力的概述,本综述还讨论了研究趋势、未解决的挑战,并提出了摘要方面的有希望的研究方向,旨原创 2024-09-25 12:58:26 · 1685 阅读 · 0 评论 -
摘要生成—通过关键术语提示方法微调LLM模型,论文理解与阅读:Prompting LLMs with content plans to enhance the summarization of
本文做的是文献总结生成,即抽象摘要生成,探索的是提示方法,通过给定提示训练摘要模型,判断提示方法是否有用,具体:> > 1. 提示方法:从结构化的论文中抽取出关键术语,作为提示内容> 2. 模型选择:使用longT5,BigBirdPegasus,LED等模型> 3. 模型输入:1.引言+结论;2.每个章节;3.每个章节+章节标题原创 2024-09-23 10:18:54 · 1433 阅读 · 0 评论 -
可控摘要综述—可控文本摘要调查,原文阅读:Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospec
通用的文本摘要方法往往无法满足个人用户的特定意图和需求。最近,学术界的注意力转向了开发更符合特定目标和用户需求的可控摘要方法。尽管可控摘要的研究成果越来越多,但目前还没有一份全面的调查报告来深入探讨在这种情况下使用的各种可控属性,深入研究相关的挑战,并调查现有的解决方案。在本调查报告中,我们正式提出了可控文本摘要(CTS)任务,根据可控属性的共同特点和目标对其进行了分类,并对每个类别中的现有数据集和方法进行了深入研究。此外,基于我们的发现,我们揭示了 CTS 的局限性和研究空白,同时也探讨了 CTS 的潜在原创 2024-09-05 15:45:59 · 1029 阅读 · 0 评论 -
抽象摘要—生成学术多文档结构化/简短摘要方法与数据集:Generating a Structured Summary of Numerous Academic Papers: Dataset and
本文介绍了一种学术论文多文档摘要总结的数据集,BigSurvey-MDS:综合总结;BigSurvey-Abs:survey论文的摘要是其正文的简短总结。并提出了一种多文档摘要总结方法:基于类别对齐和稀疏transformer(CAST)的方法。原创 2024-08-13 12:50:30 · 2938 阅读 · 0 评论 -
摘要生成—通过摘要风格控制摘要的生成/抽取,原文阅读与理解:GEMINI: Controlling The Sentence-Level Summary Style in Abstractive Te
本文介绍了一种自适应摘要抽取/生成方法,通过一个风格检测器,检测输入文本的文本风格,从而确定要使用抽取式还是抽象式的方法进行摘要总结,方法值得学习。原创 2024-08-13 12:50:10 · 862 阅读 · 0 评论 -
抽象摘要—对三个抽象摘要模型(T5,BART,Pegasus)的性能进行评估:An Analysis of Abstractive Text Summarization Using Pre-train
本文做的就是一个测评,评估pegasus-cnn-dailymail,T5-base,bart-large-cnn的性能,从结论来看t5是效果最差的。原创 2024-08-09 13:28:51 · 848 阅读 · 0 评论 -
抽象摘要—基于DistilBERT无监督(聚类和重建)为多文档生成摘要:Absformer: Transformer-based Model for Unsupervised Multi-Doc
多文档摘要(MDS)是指将多个文档中的文本总结为一个简明摘要的任务。生成的摘要能以几句话的形式提供重要内容,从而节省阅读多份文件的时间。抽象 MDS 的目的是利用自然语言生成技术为多个文档生成连贯流畅的摘要。在本文中,我们考虑了无监督抽象 MDS 的情况,即只有文档而没有提供真实摘要,我们提出了 Absformer,一种基于 Transformer 的无监督抽象摘要生成新方法。原创 2024-08-08 12:11:14 · 1377 阅读 · 0 评论 -
抽象摘要—学术论文中的图表字幕的生成(CLIP-SciBERT-GPT2):Figuring out Figures: Using Textual References to Caption Scie
本文做的就是学术论文中的图像的字幕生成,构造很简单:使用VLM—CLIP+SciBert+GPT2的模型进行训练,CLIP作为图像encoder,scibert作为文本encoder,使用gpt2作为decoder去生成图像字幕文本。原创 2024-08-07 12:57:28 · 920 阅读 · 0 评论 -
抽象摘要—学术论文中相关工作生成大型文献数据集:OARelatedWork: A Large-Scale Dataset of Related Work Sections with Full-text
本文是一篇介绍数据集的论文,数据集是一个包含相关工作及其相关引文的大型数据集,其中数据来源为CORE和Semantic Scholar,最终获得了 94 450 篇包含相关工作章节的论文,以及 5 824 689 篇在选定的相关工作章节中被唯一引用的论文。原创 2024-08-07 12:57:18 · 1142 阅读 · 0 评论 -
抽象摘要—利用抽象摘要的能力获取关键信息,以增强长文本下游任务能力:Improving Long Text Understanding with Knowledge Distilled From Su
本文做的是一个利用抽象摘要的能力,去提升下游长文本任务的能力,具体来说就是,利用抽象摘要模型中的注意力权重作为软标签,去训练一个要点检测器,即摘要文本中最重要的几个词,最后将文本的权重应用到下游任务中,与下游向量进行整合。其实可以理解为是为了找到文本中的关键词,然后让这些关键词更加突出,其实就是监督注意力机制的思路,只不过这个监督能力由要点检测器提供。原创 2024-08-06 12:40:59 · 1159 阅读 · 0 评论 -
抽象摘要—通过融合精炼抽取和抽象摘要结果减少摘要幻觉问题:UTILIZING GPT TO ENHANCE TEXT SUMMARIZATION: A STRATEGY TO MINIMIZE HAL
本文提出了一种新的方法来减少LLM或者抽象式摘要生成的幻觉问题:1.使用抽取式摘要,2.使用抽象式摘要,3.将抽取和生成进行融合,4.使用gpt对融合数据进行精炼。可以学习他的融合方法和提炼方法。原创 2024-08-05 12:49:10 · 956 阅读 · 0 评论