
文本生成
睡熊猛醒
千里之行,始于足下。
展开
-
Pragmatically Informative Text Generation 论文理解(附代码)
原文地址:https://arxiv.org/pdf/1904.01301v2.pdfGithub代码:https://github.com/sIncerass/prag_generation摘要我们使用计算语用学技术改进了条件文本生成模型的信息量。 这些技术将语言生成形成为说话者和听众之间的游戏,其中说话者应该生成输出文本,听者可以使用该输出文本来正确识别文本描述的原始输入。 虽然这...原创 2019-07-19 09:49:58 · 963 阅读 · 0 评论 -
Key Fact as Pivot: A Two-Stage Model for Low Resource Table-to-Text Generation 论文翻译
以关键事实为枢轴:一种两阶段的低资源的表格到文本生成模型摘要表到文本生成旨在将结构化数据转换为非结构化文本。 大多数现有方法采用编码器 - 解码器框架来学习转换,这需要大规模的训练样本。 然而,缺乏大并行数据是许多领域的主要实际问题。 在这项工作中,我们考虑低资源表到文本生成的情况,其中只有有限的并行数据可用。 我们提出了一种新的模型,将这一代分为两个阶段:关键事实预测(key fact ...翻译 2019-08-09 15:13:23 · 976 阅读 · 5 评论 -
Key Fact as Pivot: A Two-Stage Model for Low Resource Table-to-Text Generation 论文代码解析
1.数据处理部分原始文本处理table2entity2text.py举例:原始数据的一个句子键值对name_1:walter name_2:extra image:<none> image_size:<none> caption:<none> birth_name:<none> birth_date_1...原创 2019-08-22 17:21:59 · 477 阅读 · 3 评论 -
Data-to-Text Generation with Content Selection and Planning 阅读笔记
原文:https://arxiv.org/pdf/1809.00582.pdf代码:https://github.com/ratishsp/data2text-plan-pyAbstract数据到文本生成的最新进展已经导致使用大规模数据集和神经网络模型,这些模型是端到端训练的,没有明确地模拟说什么和按什么顺序。 在这项工作中,我们提出了一个神经网络架构,其中包含内容选择和规划,而不会牺...翻译 2019-09-12 15:34:51 · 2108 阅读 · 1 评论 -
Bootstrapping Generators from Noisy Data 论文笔记
摘要统计数据到文本生成的核心步骤涉及结构化数据表示和相关文本之间的学习对应关系。 在本文中,我们的目标是从大规模数据集中引导生成器,其中数据和相关文本松散地对齐。 我们通过引入专用内容选择机制来应对这一具有挑战性的任务。 我们使用多实例学习来自动发现数据和文本对之间的对应关系,并展示如何在训练编码器 - 解码器架构时使用这些对应来增强内容信号。实验结果表明,使用内容特定目标训练的模型改进了标准...翻译 2019-09-16 16:09:43 · 358 阅读 · 0 评论 -
End-to-End Content and Plan Selection for Data-to-Text Generation 论文笔记
摘要学习使用神经网络从结构化数据生成流畅的自然语言已成为NLG的常用方法。 当结构化数据的形式在示例之间变化时,该问题可能是具有挑战性的。 本文介绍了序列到序列模型的几种扩展的调查,以考虑潜在内容选择过程,特别是拷贝注意力机制和覆盖解码的变体。 我们进一步提出了一种基于多种集成的训练方法,以鼓励模型在训练期间学习不同的句子模板。 对这些技术的实证评估表明,生成的文本质量在五个自动度量标准以及人...翻译 2019-09-20 16:56:17 · 533 阅读 · 0 评论 -
Data2Text文本生成演化之路
最近看了很多这方面的论文,尝试做个总结。早期发展路线早期的文本生成系统多是基于规则的,Reiter等对规则系统进行了归纳总结【1】,认为文本生成系统可以分为三个较为独立的模块:(1)内容规划(Content planning),即选择描述哪些数据记录或数据域;(2)句子规划(Sentence planning),即决定所选择的数据记录或数据域在句子中的顺序;(3)句子实现(Surface ...原创 2019-09-20 17:31:44 · 5164 阅读 · 2 评论 -
Get To The Point:Summarization with Pointer-Generator Networks 论文笔记
摘要神经序列到序列模型为抽象文本摘要提供了一种可行的新方法(这意味着它们不仅限于从原始文本中简单选择和重新排列段落)。 但是,这些模型有两个缺点:它们易于错误地再现事实细节,并且倾向于重复自己。在这项工作中,我们提出了一种新颖的体系结构,该体系结构以两种正交方式增强了标准序列间注意模型。 首先,我们使用混合指针生成器网络,该网络可以通过pointing从源文本中复制单词,这有助于准确地复制信息...翻译 2019-09-22 11:11:17 · 755 阅读 · 0 评论