
每日论文
昕晴
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Fine-tune BERT for Extractive Summarization(有代码pytorch)
本论文是 extractive summarization摘要提取通常被定义为一个二分类问题,二分类问题表明这个句子是否在这个摘要中。我们的提取模型是建立在这个编码器之上,通过堆叠几个句子间Transformer来捕获用于提取句子的文档级特征。抽取结构使用encoder-decoder结构,将同一个经过预先训练的BERT编码器与随机初始化的Transformer结合起来。我们设计了一个新...原创 2020-01-14 21:19:40 · 4578 阅读 · 3 评论 -
Generative Adversarial Network for Abstractive Text Summarization∗ AAAI2018
摘要提出了使用生成器和鉴别器来进行文本摘要提取的模型,使用生成器G来作为 an agent of reinforcement learning,将raw text 作为预测输入 来预测摘要。我们还建立了一个鉴别器,试图区分生成的摘要和真实摘要。挑战:神经序列到序列模型往往会产生琐碎的、通用的总结,通常涉及高频短语生成的摘要语法性和可读性有限在大多数以前的工作中,标准的序列到序列模型被训...原创 2020-01-08 21:58:32 · 821 阅读 · 0 评论 -
Pretraining-Based Natural Language Generation for Text Summarization
摘要提出了基于预训练的编码解码框架,对于encoder: 使用Bert对输入序列进行特征表示对于decoder,是主要分为两阶的第一阶段 使用基于transfomer的解码器生成一个草稿的输出在第二阶段,我们对该draft序列的每个字进行掩码,并将其馈送到Bert,然后通过组合由Bert生成的输入序列和草图表示,我们使用基于变压器的Decodd ER,用于预测每个屏蔽位置的精炼...原创 2019-12-20 22:27:02 · 863 阅读 · 0 评论 -
12.10 抽取式摘要论文阅读 HIBERT: Document Level Pre-training of Hierarchical Bidirectional Transformers for D
摘要我们提出了Hiebert(作为来自变压器的分层双向编码器表示的缩写),用于文档编码和使用未标记数据对其进行预训练的方法先预训练摘要模型的复杂的部分,(the hierarchical encoder),然后,我们学习从预先训练的编码器初始化我们的模型来对句子进行分类。无监督的模型ModelHibbert在培训过程中的架构。Senti是上述文件中的一句话,总共有4个句子。在编码期间掩...原创 2019-12-10 21:37:39 · 1494 阅读 · 3 评论 -
QuaSE:SequenceEditingunderQuantifiableGuidance
这是一篇文本生成的论文。编辑输入序列生成满足相对应于定量值(评分值)的输出文本,要求保留输入序列的主要内容。(内容不变,情感变化)将其分为内容部分,结果部分(情感部分)。一共有三个rnn组成。使用了变分自编码器。使用了伪平行对语句。使用了对偶重建。使用了量化的引导...原创 2019-06-18 16:22:04 · 238 阅读 · 0 评论 -
STAMP:Short-TermAttention/MemoryPriorityModelfor Session-basedRecommendation
基于会话的推荐的短期注意/记忆优先级模型摘要然而,现有的方法都没有明确考虑到用户当前操作对其下一步行动的影响。在本研究中,我们认为长期记忆模型可能不足以对长会话进行建模,而长会话通常包含由意外点击引起的用户兴趣漂移。提出了一种新的短期注意/记忆优先级模型,该模型能够从会话上下文的长期记忆中获取用户的一般兴趣,同时考虑到用户当前的兴趣来自于最后一次点击的短期记忆。在2015年RecSys挑战赛...原创 2019-05-13 16:46:46 · 3570 阅读 · 0 评论 -
Leveraging Meta-path based Context forTop-N Recommendation with A NeuralCo-AttentionModel
摘要异构信息网络(Heterogeneous information network)(混合网络)被广泛应用于推荐系统由于其卓越的处理复杂文本信息的能力。现存方法两个主要的缺点:- 这些模型很少学习一个精准的表达在path 或者meta-path上。- 在交互中,他们没有考虑元路径和所涉及的用户项对之间的相互作用为了解决这些问题,我们开发了一个具有共同注意机制的深度神经网络,利用丰富的基...原创 2019-05-13 10:59:47 · 1933 阅读 · 0 评论 -
Multi-Pointer Co-Attention Networks for Recommendation
摘要我们基于指针的方法使用基于gumbel-softmax的指针机制,该机制允许将离散向量合并到可微神经结构中。我们的指针机制本质上是共同关注的,学习指针依赖于用户-项目关系。最后,我们提出了一种多指针学习方案,该方案能够将用户-项目交互的多个视图结合起来。介绍评论应该独立建模,(1)评论(2)并不是所有的评论都是同样重要的是,应该不同的加权,(3)每一个审查的重要性应该是动态的,依赖于目标...原创 2019-05-15 21:47:57 · 1360 阅读 · 0 评论 -
Session-basedRecommendationwithGraphNeuralNetworks论文笔记
摘要基于会话的推荐问题旨在预测基于匿名会话的用户行为.以前的算法不能保证获得准确的向量,在保证嵌入精度的基础上,考虑到项目的复杂转换,提出了一种新的嵌入方法,SR-GNN/该方法将会话序列建模为图结构数据。基于会话图,GNN可以捕获复杂的项目转换,这是传统顺序方法难以揭示的。然后,使用注意力网络将每个会话表示为全局偏好和该会话当前兴趣的组成。传统方法的局限性首先,由于在一个会话中没有足够的...原创 2019-05-05 15:30:38 · 4417 阅读 · 0 评论 -
Next Item Recommendation with Self-Attention
摘要我们的模型利用自我注意机制从用户的历史交互中推断出项目与项目之间的关系有了self-attention,用户互动轨迹中每个项目的权重就能更好地代表用户的兴趣。模型最后使用metric learning 框架进行训练,既考虑了短期特征又考虑了长期特征。我们的模型采用度量学习框架的形式,在该框架中,用户的自出席表示与预期(金色)项之间的距离在训练期间被拉近。模型我们的模型包括self-at...原创 2019-05-04 22:26:02 · 2854 阅读 · 1 评论 -
star- Transformer
摘要虽然transformer在很多NLP任务上都取得了很大的成功,但是它的结构很重,注意力连接是完全连接的,这导致了它对大量训练数据的依赖。为了降低模型的复杂性,我们用星型拓扑结构代替了全连通结构。其中每两个相邻节点通过一个共享中继节点进行连接。因此,复杂性从二次降低到线性,同时保留捕获局部成分和长期依赖关系的能力。介绍star-transformer核心思想是通过将完全连接的拓扑结构移动...原创 2019-05-04 19:00:56 · 3466 阅读 · 2 评论 -
Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding
摘要top-n序列推荐模型讲每个用户过去有过交互的商品看成一个序列,目的是来预测用户未来可能有交互行为的商品的前N个的排序。这个交互作用的顺序揭示了序列patterns扮演了一个重要的角色,揭示了序列中最近的项目对下一个项目的影响更大。在这篇论文中提出了convoltional sequence embedding recommendation model (caser).其主要思想是将在时间和...原创 2019-05-04 17:30:51 · 4567 阅读 · 0 评论 -
SummaRuNNer: A Recurrent Neural Network Based Sequence Model for Extractive Summarization of Documen
model主要贡献提出了一种基于递归神经网络RNN的抽取式摘要的序列模型可解释强-可视化‘对抽取模型进行抽象化的训练,该模型可以单独对人工生成的参考摘要进行训练,从而消除了句子级抽取’标签的需求。一种基于两层RNN的序列分类器:底层在每个句子中的word level上工作,而顶层运行在sentence level。双指向箭头表示双向RNN。 1和0的顶层是基于sigmoid的分...原创 2019-03-11 17:11:19 · 1225 阅读 · 0 评论