
期刊阅读
文章平均质量分 90
Vincy_King
所有人都祝你快乐,我只愿你遍历山河,觉得人间值得。
展开
-
【Image Captioning】Improve Image Captioning by Estimating the Gazing Patterns from the Caption
CNN等神经网络模型中提取的图像特征中产生类人描述方面达到了良好的性能。然而,之前没有一种明确的方法能够反映人类对图像的感知,比如凝视模式。在本文中,作者假设在image caption中的名词(即实体)及其顺序反映了人类的凝视模式和感知。为此,作者从caption中的单词中预测注视序列gaze sequence,然后训练一个指针网络pointer network来学习在新图像中给定一组object后自动生成gaze sequence。原创 2022-11-16 14:51:25 · 377 阅读 · 0 评论 -
【Gaze】GazBy: Gaze-Based BERT Model to Incorporate Human Attention in Neural Information Retrieval
本文感兴趣的是研究是否可以利用人类注视信号来提高最先进的搜索引擎性能,以及如何将这个以人类注意力为标志的新输入信号整合到现有的神经检索模型中。在本文中,作者提出了GazBy (原创 2022-08-31 13:16:26 · 564 阅读 · 0 评论 -
【Transformer】SIMPLIFIED SELF-ATTENTION FOR TRANSFORMER-BASED END-TO-END SPEECH RECOGNITION 阅读笔记
2021 IEEE由于这篇所涉及的领域我并不了解,所以仅提供instruction和method部分,experiment其实也不太详尽,就不多赘述,需要者可自行观看。总的来说,本篇paper最大的亮点是提出了使用FSMN内存块来形成Q和K向量的SSAN层,并作用于Transformer模型,在确保性能没有降低的前提下,减少了传统Transformer训练的时长。由于Transformer模型在建模长期依赖关系方面的优势,因此已被引入端到端语音识别中,在各种任务上具有最先进的性能。然而,这种改进通常是通过使原创 2022-08-12 17:03:56 · 882 阅读 · 0 评论 -
【Transformer】Syntax-augmented Multilingual BERT for Cross-lingual Transfer 阅读笔记
近年来,我们发现,通过使用许多语言的大型语料库来预训练多语言文本编码器来促进跨语言迁移学习。然而,由于不同语言的类型差异,跨语言迁移具有挑战性。然而,语言语法,例如语法依赖性,可以弥合类型上的差距。之前的研究表明,预先训练过的多语言编码器,如mBERT,可以捕获语言语法,帮助跨语言迁移。这项工作表明,显式地提供语言语法和使用一个辅助目标来编码通用依赖树结构来训练mBERT,有助于跨语言迁移。作者对四个NLP任务进行了严格的实验,包括文本分类、问答、命名实体识别和面向任务的语义解析。实验结果表明,语法增强的m原创 2022-08-12 16:59:21 · 680 阅读 · 0 评论 -
MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER 阅读笔记
2021 Association for Computational Linguistics低资源语言的命名实体识别(NER)是一个既实用又具有挑战性的研究问题。本文研究了跨语言NER的zero-shot transfer问题,特别是在源语言训练数据量也有限的情况下。本文首先提出了一种简单而有效的标记序列翻译方法,将源语言训练数据翻译为目标语言,避免了词序变化和实体跨度确定等问题。利用源语言数据和翻译后的数据,引入了一种基于生成的多语言数据增强方法,通过生成多种语言的合成标记数据来进一步增加多样性。这些增强原创 2022-07-23 23:52:51 · 381 阅读 · 0 评论 -
Cross-lingual Transfer of Correlations between Parts of Speech and Gaze Features 阅读笔记
最近的几项研究表明,阅读过程中的眼球运动提供了关于语法和句法处理的信息,这有助于NLP模型的诱导。然而,所有这些研究都仅限于英语。这项研究表明,注视和词性(PoS)的相关性在很大程度上在英语和法语之间转移。这意味着我们可以复制之前关于法语中基于注视的PoS标记的研究,但我们也可以使用英语注视数据来帮助法国NLP模型的诱导。......原创 2022-07-23 23:42:47 · 291 阅读 · 0 评论 -
Dual Contrastive Learning: Text Classification via Label-Aware Data Augmentation 阅读笔记
dual contrastive learning 阅读笔记原创 2022-06-26 20:25:51 · 1143 阅读 · 0 评论 -
【Dataset】GoEmotions: A Dataset of Fine-Grained Emotions
GoEmotions: A Dataset of Fine-Grained EmotionsAbstract理解用语言表达的情感有广泛的应用,从建立有同情的聊天机器人到检测有害的在线行为。可以使用具有细粒度类型的大规模数据集来改进,以适应该领域的进展。本文介绍了GoEmotits数据集,这是最大的58k个英语Reddit注释的手动注释数据集,标记为27种情绪类别或中性。作者通过主保留成分分析来演示了高质量的注释,用现有的情绪基准进行了迁移学习实验,以表明本文数据集可以很好地推广到其他领域和不同的情绪分类原创 2022-05-25 14:49:30 · 1389 阅读 · 0 评论 -
【Knowledge Graph】C3KG: A Chinese Commonsense Conversation Knowledge Graph
C3^33KG: A Chinese Commonsense Conversation Knowledge GraphMay 22-27, 2022 Association for Computational Linguistics这篇文章所涉及到的领域不太熟悉,先记录下,以后方便看。Abstract现有的常识性知识库通常以一种孤立的方式来组织元组,这就缺乏常识性的会话模型来计划下一个步骤。为了填补这一空白,本文设计了一个大规模的多回合人写对话语料库,并创建了第一个包含社会常识知识和对话流信息的中国原创 2022-05-25 10:27:42 · 741 阅读 · 1 评论 -
《A Survey on Aspect-Based Sentiment Analysis: Tasks, Methods, and Challenges》阅读笔记
忙活了一阵子后,现在终于有空研究一下目前如火如荼的ABSA了,当然,还是先从综述出发。A Survey on Aspect-Based Sentiment Analysis: Tasks, Methods, and ChallengesAbstract基于方面的情绪分析(ABSA)作为一个重要的细粒度情绪分析问题,旨在从方面层面来分析和理解人们的观点,在近十年来一直引起了人们的极大兴趣。为了处理不同场景下的ABSA,研究人员引入了不同的任务来分析不同的情绪元素及其关系,包括方面术语、方面类别、意见术语原创 2022-05-17 13:46:40 · 2468 阅读 · 0 评论 -
【ACSA】Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis
Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis with Affective Knowledge1. Abstract本文从新的角度研究了方面类别情绪分析(ACSA)任务,探索一个基于外部知识的Beta分布引导的方面感知图构造。也就是说,本文不再纠缠如何费力地搜索情绪线索的方面,而是如何基于公共知识库更好地找到单词高度情感相关的上下文方面并确定他们的重要性,以便学习方面相关的上下文情感依原创 2022-05-10 06:06:18 · 959 阅读 · 0 评论 -
【Speaker Recognition】A Neural-Network-Based Approach to Identifying Speakers in Novels
A Neural-Network-Based Approach to Identifying Speakers in NovelsAbstract在小说中识别说话者的目的是通过文本分析来确定谁在特定的语境中引用了一句话。这项任务对于语音合成系统来说,在制作有声读物时,为引用分配适当的声音是很重要的。然而,现有的方法坚持使用手工特征和传统的机器学习分类器,这限制了说话人识别的准确性。在本文中,我们提出了一种方法来解决这一具有挑战性的问题。我们将说话者识别定义为一个评分任务,并建立了一个基于BERT的候选评原创 2022-03-04 09:19:28 · 750 阅读 · 0 评论 -
【Speaker Recognition】A CHAPTER-WISE UNDERSTANDING SYSTEM FOR TEXT-TO-SPEECH IN CHINESE NOVELS
A CHAPTER-WISE UNDERSTANDING SYSTEM FOR TEXT-TO-SPEECH IN CHINESE NOVELSAbstract在基于文本转语音TTS的有声读物制作中,多角色配音和情感表达可以显著提高有声读物的自然性。然而,它需要在句子水平上手动标注带有明确的说话者和情感标签的原创小说,这是非常耗时和昂贵的。在本文中,我们提出了一种中国小说的章节理解系统,基于章节级语境自动预测说话者和情感标签。与每个组件的基线相比,我们的模型获得了更高的性能。由我们提出的系统制作的有声读原创 2022-03-04 09:10:29 · 3820 阅读 · 0 评论 -
【Gaze】A Survey on Using Gaze Behaviour for Natural Language Processing
A Survey on Using Gaze Behaviour for Natural Language Processing1. Abstract摘要中主要介绍本文的工作,整篇主要讨论了在NLP领域gaze behavior用来处理的不同task。gaze behavior属于认知领域,它的收集是一个很费时费钱的工作。因此本文专注于研究模型在运行时的注视行为,并且也描述了多语言任务中的不同的eye tracking语料库。最后通过讨论应用点以及gaze behavior如何能够帮助解决一些文字识别和原创 2022-03-02 16:53:55 · 825 阅读 · 0 评论 -
Neural Entity Linking综述【详细版】
NEL的最新详细综述~原创 2022-01-16 13:43:42 · 1607 阅读 · 0 评论 -
【EL】MOLEMAN: Mention-Only Linking of Entities with a Mention Annotation Network 论文笔记
这篇可以说是在Entity Linking in 100 Languages这篇论文的基础上改进的。1. Abstract本文提出了一种基于实例的最近邻实体链接方法。与大多数表示每个实体的单一向量的先前实体检索系统不同,作者构建了一个上下文化的提及编码器,它学习将同一实体的相似提及放在向量空间中而不是mention不同实体更接近。这种方法允许所有提到的实体都作为“类原型”,因为推理涉及从训练集中完整的标记实体集合中检索,并应用最近的提及邻居的实体标签。本文模型是在来自维基百科超链接的大型多语言语料库上训原创 2022-01-10 15:50:53 · 366 阅读 · 1 评论 -
【EL】Knowledge-Rich Self-Supervised Entity Linking 论文笔记
1. Abstract实体链接面临着重大的挑战,例如大量的变化和普遍的歧义,特别是在具有无数实体的高价值领域(所以本文从医疗领域出发)。标准的分类方法存在注释瓶颈,不能有效地处理看不见的实体。zero-shot实体链接已经成为泛化到新实体的一个有希望的方向,但它仍然需要在训练中提到黄金实体和所有实体的规范描述,这两种方法都在维基百科之外很少可用。在本文中作文通过利用现成的领域知识来探索实体链接的知识环自我监督(KRISS)。在训练中,它使用领域本体在未标记文本上生成自我监督的mention示例,并使用对原创 2022-01-09 21:22:56 · 756 阅读 · 0 评论 -
【EL】Entity Linking in 100 Languages论文笔记
Entity Linking in 100 Languages1. Abstract本文提出了一个新的多语言实体链接公式,其中特定语言的提到解决了一个与语言无关的知识库。在这个新的设置中,作者训练了一个双编码器,基于之前的工作,改进的特征表示、负挖掘和一个辅助实体配对任务,以获得一个包含100种+语言和2000万个实体的单一实体检索模型。该模型优于一个更有限的跨语言链接任务的最先进的结果。稀有实体和低资源语言在这种大规模的评估中提出了挑战,因此作者提倡增加对zero-shot和few-shot评价的关注原创 2022-01-09 14:58:29 · 453 阅读 · 0 评论 -
《Curriculum-Meta Learning for Order-Robust Continual Relation Extraction》论文笔记
Curriculum-Meta Learning for Order-Robust Continual Relation Extraction这篇文章的阅读方式尝试用沐神建议的方法进行~1. Abstract连续关系提取是从非结构化文本中逐步提取新事实的一项重要任务。根据这些关系的顺序到达顺序,该任务容易面临两个严重的挑战,即灾难性遗忘和顺序敏感性。本文提出了一种新的curriculum-meta learning方法来解决连续关系提取中的上述两个挑战。作者将 meta learning and cu原创 2022-01-07 23:52:15 · 890 阅读 · 0 评论 -
Neural Entity Linking 方法与进展
主要基于Neural Entity Linking: A Survey of Models Based on Deep Learning论文对NEL进行了讲解原创 2022-01-07 00:23:41 · 881 阅读 · 0 评论 -
《Few-Shot Named Entity Recognition: A Comprehensive Study》论文笔记
Few-Shot Named Entity Recognition: A Comprehensive Study最近发现读论文get idea有点困难,不如参考大佬的笔记来做做总结,今天主要总结一下few-shot NER,这是一篇few-shot NER的综述《Few-Shot Named Entity Recognition: A Comprehensive Study》1. MotivationNER一种经典的方法是在PLM提供的表示之上添加一个线性分类器,并在域标签上使用交叉熵目标来微调整个模原创 2022-01-06 09:34:07 · 2680 阅读 · 0 评论 -
【如何找IDEA】之打补丁法
打补丁法【打在脸上,效果最佳】——以MAE为例一、基于原文章的补丁想自己的点以下是MAE的故事大纲:基于ViT+BERT遮住更多的图片块编码时只处理没遮住的用Transformer来输出(解码)(有从ViT+BERT到MAE的分析,再从MAE加上前面整个来看)ViT最后一小段有说,作者怎样把这个东西弄到BERT上去,但效果不如直接在标号上训练的效果好基于此,MAE做了2个改进:1.做掩码的时候遮住更多的图片块,这样子能够尽量使得图片之间没有那么冗余,使得任务更具挑战性。原创 2022-01-03 14:37:15 · 821 阅读 · 0 评论 -
如何读论文
该篇文章主要是记录沐神对于如何读论文的笔记,附上B站链接一、paper的架构首先是一篇论文的结构,大致如下:1.Title2.Abstract3.Introduction4.Method5.Experiments6.Conclusion二、读论文的顺序第一遍:标题、摘要、结论。可以跳到实验部分看一些比较重要的图和表,或者是瞄一眼在方法里面的图和表,看看文章主要是在干什么。通过这一遍花十几分钟的时间大概了解这篇文章讲什么,质量怎么样,是否适合自己的研究方向,以此决定是否继续读下去。第二原创 2022-01-02 17:55:56 · 1329 阅读 · 0 评论 -
《Improving Cross-lingual Text Classification with Zero-shot Instance-Weighting》论文笔记
1. Motivation跨语言文本分类(CLTC)是一项具有挑战性的任务,由于缺乏低资源语言中的标记数据,因此变得更加困难。在文中,作者提出了零目标实例加权,一个通用的模型无关的零目标学习框架,通过利用源实例加权来改进CLTC。它在预先训练过的语言模型上添加了一个模块,用于实例权重的相似性计算,从而将每个源实例与目标语言对齐。在训练过程中,该框架利用由实例权重加权的梯度下降来更新参数。2. Contribution引入了零目标实例加权,这是一个简单但有效的、可扩展的框架,以支持零目标CLTC的实例原创 2021-12-23 16:47:50 · 657 阅读 · 0 评论 -
Improving the Faithfulness of Attention-based Explanations with Task-specifific Information for TC
Improving the Faithfulness of Attention-based Explanations with Task-specifific Information for Text Classifification1. 必备知识模型的可解释性:对神经网络的解释可以通过识别输入的哪些部分对给定的预测很重要来获得。一种方法是使用更容易解释的稀疏线性元模型。另一种方法是计算保留和省略输入标记之间的模型预测差异。2. Motivation在自然语言处理中,神经网络架构经常使用注意机制来在原创 2021-12-23 00:06:05 · 758 阅读 · 0 评论 -
论文《Dialogue State Tracking with a Language Model using Schema-Driven Prompting》学习笔记
Dialogue State Tracking with a Language Model using Schema-Driven Prompting——prompt在对话系统上的应用1. Idea第一眼看到题目,就蹦出了几个问题什么是dialogue state tracking?答: The backbone module of a typical system is dialogue state tracking (DST), where the user goal is inferre原创 2021-12-07 09:39:40 · 900 阅读 · 0 评论 -
论文《Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning》学习笔记
论文链接: https://arxiv.org/abs/2109.041441. Motivation在进行 sentence pair classification 的时候,如果是 few-shot learning, 使用 prompt-based finetuning 很容易产生启发式推理(Inference Heuristics)的问题(即:模型会因为一个句子对由同一个单词组成,从而假设这个句子对具有相同的含义), 然而这个问题在 zero-shot learning 下不会出现,这说明 fin原创 2021-12-07 09:30:03 · 329 阅读 · 0 评论 -
NLP发展的四个范式——Prompt的相关研究
本文主要基于论文《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》对NLP的四个方式和Prompt的相关研究进行介绍和说明。1. NLP发展的四个范式1.1 四个范式P1:非神经网络时代的完全监督学习(Fully Supervised Learning, Non-Neural Network)P2:基于神经网络的完全监督学习(Fully S原创 2021-11-28 00:43:29 · 2692 阅读 · 0 评论 -
A Sensitivity Analysis of (and Practitioners‘ Guide to) Convolutional Neural Networks for Sentence笔记
原文及译文本文使用CNN做句子分类(文本分类),下图为一个实例图解。Practitioners’ Guide用于句子分类的CNN有许多超参数,这篇论文专注于对单层CNN分类效果进行分析,得出了一些具有指导意义的结论。Static or Non-static通常来说,使用预训练词向量比随机初始化的效果要好。然而,使用预训练词向量初始化后,是否应该进行微调?这篇论文在多个数据集做了如下图所示的对照实验。从实验结果可以看出,在上述所有数据集中,采取微调策略(non-static)的效果比固定词向量原创 2021-11-26 16:14:51 · 2301 阅读 · 0 评论 -
论文《Convolutional Neural Networks for Sentence Classifification》的学习笔记
原文及译文源码1. Introduction作者讲述了深度学习在计算机视觉,语音识别等领域拥有了显著的成果。近年来在自然语言处理中,主要包括词向量的研究,以及训练文本,将文本转化为词向量进行进一步的文本分类。将之前稀疏的1-V(词典的大小)转化为特定维度的向量,相当于初步将文本中的情感特征加在了词向量中。通过词向量的转化,语义相近的词距离也相近,比如余弦距离。第二段讲述了利用CNN卷积器来提取特征。最开始被应用在计算机视觉,但是后来被研究应用在了自然语言处理里面的语义解析、搜索、语句模型等传统的自原创 2021-11-24 20:15:09 · 423 阅读 · 0 评论 -
论文《A convolutional neural network for modelling sentences》的学习笔记
论文原文及译文下载算法实现1. 引言自然语言处理的基础问题在于句子的语义语法表示,其他特定任务如分类等都是在语义语法表示的基础上进行高层次的处理,因此,如何对句子进行表达就成为了核心的问题。针对于当前存在的模型,本文提出了Dynamic Convolution Neural Network (DCNN)方法,利用宽卷积和k-max pooling采样,构造了一种类似parse tree解析树的结构,能够提取长距离的信息。该模型在四个实验三个数据集上进行了测试,取得了不错的结果。2. 模型2.1原创 2021-11-24 13:32:09 · 1136 阅读 · 0 评论 -
论文《Reasoning With Neural Tensor Networks for Knowledge Base Completion》的学习笔记
论文《Reasoning With Neural Tensor Networks for Knowledge Base Completion》的学习笔记论文及译文写在前面:作为一个NLP小白,现在满脑子都是”不能拖后腿 不能拖后腿“ ,所以今天开始每天一篇文献好好做笔记,不知不觉已经爱上了typora的排版,所以上面的译文链接中的译文是用typora进行翻译的哦~由于排版需要耗点时间,博客可能没办法做到每天都及时更新,但但但,我会尽力的(ง •_•)ง一、问题描述1.1 输入 三元组(e1原创 2021-11-23 14:28:53 · 1036 阅读 · 1 评论