
日常总结
文章平均质量分 72
南楚巫妖
且试新茶
展开
-
On the Evaluation of NLP-based Models for Sofware Engineering 论文总结
On the Evaluation of NLP-based Models for Sofware Engineering基于自然语言处理的软件工程模型评价研究摘要基于NLP的模型越来越多地被用于解决SE问题。这些模型要么在SE域中使用,几乎没有变化,要么根据源代码及其独特特性进行了大量定制。其中许多方法被认为优于或补充了现有的解决方案。然而,这里出现了一个重要的问题:这些模型在SE社区中是否得到了公平一致的评估?。为了回答这个问题,我们回顾了研究人员如何评估基于NLP的SE问题模型。研究结果表明,目原创 2022-04-01 17:23:45 · 306 阅读 · 0 评论 -
LinkBERT: Pretraining Language Models with Document Links 论文总结
LinkBERT: Pretraining Language Models with Document LinksLink BERT:带有文档链接的预训练语言模型源码位置:https://github.com/michiyasunaga/LinkBERT摘要语言模型(LM)预训练可以从文本语料库中学习各种知识,帮助下游任务。然而,现有的方法(如BERT)对单个文档建模,并且不能捕获跨文档的依赖关系或知识。在这项工作中,我们提出了LinkBERT,这是一种LM预训练方法,利用文档之间的链接,例如超链原创 2022-03-31 16:40:53 · 2500 阅读 · 0 评论 -
Hierarchical Transformer Model for Scientific Named Entity Recognition 论文总结
Hierarchical Transformer Model for Scientific Named Entity Recognition科学命名实体识别的层次变换模型Github 地址:https://github.com/urchade/HNER摘要:命名实体识别是关系抽取、知识图构造等自然语言处理系统的重要组成部分。在这项工作中,我们提出了一种简单有效的命名实体识别方法。我们方法的主要思想是使用一个预先训练好的转换器(如BERT)对输入子词序列进行编码,然后,在子词表示中添加另一层转换器,原创 2022-03-31 09:29:47 · 1817 阅读 · 0 评论 -
VLP: A Survey on Vision-Language Pre-training 论文总结
VLP: A Survey on Vision-Language Pre-trainingVLP:视觉语言预训练研究综述论文地址:https://arxiv.org/pdf/2202.09061.pdf摘要:在过去几年中,训练前模型的出现将计算机视觉(CV)和自然语言处理(NLP)等单峰领域带入了一个新时代。大量工作表明,它们有利于下游单峰任务,避免从头开始训练新模型。那么,这种预先训练好的模型可以应用于多模式任务吗?研究人员已经探索了这个问题,并取得了重大进展。本文综述了视觉语言预训练(VLP)原创 2022-03-30 16:03:09 · 4777 阅读 · 0 评论 -
如何学习NLP论文
最近在B站学习这系列视频,视频链接如下:https://www.bilibili.com/video/BV1ME411J7Ch?p=1在此进行总结:2. 收集和组织论文收集引擎:ACL网站https://aclanthology.org/arxiv 网站https://arxiv.org/整理某类方向论文:(1)通过会议按照那一年、什么会议形式去投(2)通过是否preprint按照论文是否已投(3)通过问题按照论文是无监督/有监督、检索式/生成式等方向去实现(5)通过方法按原创 2022-03-27 21:02:01 · 553 阅读 · 0 评论 -
在IDEA中启动spark项目的操作
第一步:在pom文件中换成<properties> <scala.version>2.12.12</scala.version> <maven.compiler.source>1.8</maven.compiler.source> <maven.compiler.target>1.8</maven.compiler.target> <encoding>UTF-8</en原创 2022-02-12 17:05:59 · 626 阅读 · 0 评论 -
深度之眼论文学习方法
http://paperwithcode.comhttps://sci-hub.twhttps://sci-hub.sihttps://sci-hub.se此三项需要DOI值进行辅助。原创 2021-08-14 23:28:43 · 855 阅读 · 1 评论