自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 链式前向星

本文记录一种图数据结构,它能够较为节省空间地存储图。 我们知道,邻接矩阵的空间复杂度是O(N^2),但是在稀疏图中,这显然是没必要的。实际上,使用O(N+M)的复杂度就能记录图结构。 #include <iostream> #include <vector> using namespace std; // 链式前向星 struct Edge{ int next; int to; int v; } edge[1000000]; int head[100000]

2022-01-11 18:56:24 407

原创 PURE

今天分享一篇普林斯顿大学的信息抽取工作。这篇论文颠覆了联合抽取的思路,论证Pipeline的方式比联合抽取和多任务学习效果都要好。对于一直在做联合抽取工作的我来说,确实很令人沮丧。但也正因为本文的方法很简单,我认为或许会有改进之处。 A Frustratingly Easy Approach for Entity and Relation Extraction 普林斯顿大学(Princeton University) NAACL 2021 citation: 36 Abstract 近年来大部分的命名实体识

2021-12-21 21:55:46 190

原创 PURE

今天分享一篇普林斯顿大学的信息抽取工作。这篇论文颠覆了联合抽取的思路,论证Pipeline的方式比联合抽取和多任务学习效果都要好。对于一直在做联合抽取工作的我来说,确实很令人沮丧。但也正因为本文的方法很简单,我认为或许会有改进之处。 A Frustratingly Easy Approach for Entity and Relation Extraction 普林斯顿大学(Princeton University) NAACL 2021 citation: 36 Abstract 近年来大部分的命名实体识

2021-12-21 21:48:15 612

原创 BERT参数量计算

BERT参数量计算 目前,预训练模型在NLP领域占据核心地位。预训练模型的参数量是庞大的,例如BERT(base)的参数量是110M,BERT(large)的参数量是330M。为了深入认识,我决定思考一下BERT参数量是如何计算的。 首先我们知道,BERT是基于transformer结构的预训练模型。在BERT论文中提到了有关BERT的信息: Parameters in BERT(base) Number word list 30522 layer 12 hidden size 76

2021-12-21 21:13:20 3179

原创 Tree-RE

Tree-RE Graph Convolution over Pruned Dependency TreesImproves Relation Extraction EMNLP 2018 斯坦福大学(Stanford University) citation: 455 Abstract 依存树帮助关系抽取模型捕获单词之间的远距离关系。 然而,现有的基于依存树的模型或者过度剪枝丢失了关键信息,或者由于多样树结构难以并行化过导致计算低效。我们为信息抽取量身定制,提出了GNN的拓展,它能够池化任意决策树的信息。为

2021-12-21 20:47:39 284

原创 公众号分享

公众号分享 码一点有关NLP经验/前沿/知识的公众号~ NLP ALNLP AMiner科技 arXive每日学术速递 编程指北 高能AI 逛逛GitHub 进击的coder NewBeeNLP NLP工作站 磐创AI PaperWeekly 深度学习与NLP TsinghuaNLP 夕小瑶的卖萌屋 其他 陈老师有话说 大侠学python 大侠学java ...

2021-12-20 23:05:48 633

原创 Attention

Paper|Neural Machine translation By jointly Learning To align And Translate ICLR 2015 雅各布大学 (Jacobs University Bremen),德国 蒙特利尔大学(Universit´e de Montr´eal),加拿大 citation:21401 Abstract 神经机器翻译提出的模型通常属于Enc-Dec模型。编码器编码源句为固定长度的向量,解码器利用该向量生成翻译结果。我们猜认为使用固定长度的向量是性能

2021-12-20 12:05:24 296

原创 兔子与星空

兔子与星空 总时间限制: 1000ms 内存限制: 10000kB 描述 很久很久以前,森林里住着一群兔子。兔子们无聊的时候就喜欢研究星座。如图所示,天空中已经有了n颗星星,其中有些星星有边相连。兔子们希望删除掉一些边,然后使得保留下的边仍能是n颗星星连通。他们希望计算,保留的边的权值之和最小是多少? 输入 第一行只包含一个表示星星个数的数n,n不大于26,并且这n个星星是由大写字母表里的前n个...

2019-12-10 19:57:17 496

原创 求中缀表达式的值

求中缀表达式的值 分享一道经典的栈与队列题目。 #include <iostream> #include <string> #include <cstring> #include <queue> #include <stack> using namespace std; const int N = 605; struct node{ ...

2019-12-10 19:46:50 519

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除