
知识图谱
隔壁的NLP小哥
积跬步,至千里
展开
-
知识图谱—大规模网络编码(LINE模型)
知识图谱—大规模网络编码(LINE模型)本文主要是对于LINE:Large-scale Information Network Embedding的翻译,有兴趣的读者可以参考原始文献。1 背景介绍信息网络在现实世界中是无处不在的,例如航线网络,出版网络,社交网络等等。这些信息网络的规模从几百个节点到百万,千万个节点的规模。 分析大规模的信息网络在学术界和工业界受到了广泛的关注。本文章主要关注于信息网络在低维空间中的编码问题。网络中的每一个节点使用一个低维的向量进行表示。这样的低维编码在下游的应用中,例原创 2020-10-07 17:10:10 · 3233 阅读 · 1 评论 -
知识图谱—知识推理综述(三)
知识图谱—知识推理综述(三)接上一篇文章知识图谱—知识推理综述(二)3 基于表示的知识推理3.1 方法简述在之前所介绍的知识推理中,都显示的定义了知识推理所需要的规则,条件等等离散符号。而在基于表示的知识推理中,我们第一步是将知识图谱中的节点和关系进行连续向量空间的映射,需要将其物理表示映射为数值表示,然后在利用数学中的相关算法,通过数值计算的方式进行知识推理。对于映射的向量空间而言,其可以是一个或者多个的向量或者矩阵。基于表示的推理的核心在于“如何表示”,在表示学习的过程中,我们需要的是让算法自原创 2020-09-07 17:25:01 · 2708 阅读 · 0 评论 -
知识图谱—知识推理综述(二)
知识图谱—知识推理综述(二)本文接上一篇博客知识图谱—知识推理综述(一)2 基于传统方法的推理2.2 基于图结构的推理2.2.1 引入在知识图谱中,如果是自下而上的进行构建,那么最终图谱将以一个有向图的形式进行呈现。图中的节点表示的是实体或者实体的属性值,有向图的边表示的是不同实体之间的关系,或者实体和其属性值之间的属性关系。有向图的结构可以很好的反应知识图谱的语义信息。当进行推理的时候,可以从图谱中的一个点进行出发,沿着有向边到达其他节点。从而形成一条推理路径。举一个例子来说: 小明——>原创 2020-09-05 15:39:46 · 5381 阅读 · 1 评论 -
知识图谱—知识推理综述(一)
知识图谱—知识推理综述(一)1 知识推理的概念以及分类1.1 知识推理的基本概念所谓的知识推理,就是在已有知识的基础之上,推断出未知的知识的过程。通过从已知的知识出发,通过已经获取的知识,从中获取到所蕴含的新的事实,或者从大量的已有的知识中进行归纳,从个体知识推广到一般性的知识。根据上面的概念的描述,我们可以知道,对于知识推理而言,其包括的内容可以分为两种,第一种是我们已经知道的,用于进行推理的已有知识,另外一种是我们运用现有的知识推导或者归纳出来的新的知识。对于知识而言,其形式是多种多样的,可以是原创 2020-09-04 18:47:18 · 24550 阅读 · 4 评论 -
文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings
文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings1 背景介绍半监督学习的目标是利用未标记的数据来提升模型的效果。大量的半监督学习算法共同优化两个训练时的目标函数。包括基于已标记数据的监督学习损失和基于已标记和未标记数据的半监督学习的损失。基于图的半监督学习的损失以一种对于监督学习的损失和图的拉普拉斯正则化项的加权求和的形式来定义。图的拉普拉斯正则化是基于相邻节点之间拥有相同标签的结构的假设来定义的。图的拉普拉斯正则化因为约束了原创 2020-07-04 22:21:26 · 1296 阅读 · 0 评论 -
文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings
文献阅读——Revisiting Semi-Supervised Learning with Graph Embeddings1 Introduction半监督学习的目标是利用未标记的数据来改善模型的效果。大量半监督的学习算法共同优化利用已标记数据的监督学习损失和利用已标记数据和未标记数据的半监督学习的两个训练的目标函数。基于图的半监督学习定义了一个对于已标记数据和一个图的拉普拉斯正则化项的损失函数。其中图的拉普拉斯正则化项是一个基于周围节点假设:其假设图中相邻的节点之间拥有相同的标签结构。因为其通过图原创 2020-06-17 17:16:51 · 1749 阅读 · 0 评论 -
知识表示——Word2Vector(二)
知识表示——Word2Vector(二)1、CBOW和Skip-gram的优化提出在之前的文章知识表示——Word2Vector(一)中,我们具体的介绍了Word2Vector中的CBOW模型和Skip-gram模型的基本原理。首先我们来回顾一下两个模型的基本结构:无论是CBOW还是Skip-Gram模型,在其结构的最后一步,都是一个全连接并softmax的操作,我们不妨提出这样的假设,...原创 2020-02-26 11:03:25 · 385 阅读 · 0 评论 -
知识表示——Transformer模型解读(一)
知识表示——Bert模型解读原创 2020-02-24 00:45:37 · 2851 阅读 · 0 评论 -
知识表示——Word2Vector(一)
深度学习——Word2Vector1、神经网络语言模型NNLM1.1 NNLM基本介绍首先,既然我们要讲Word2Vector,那么神经网络语言模型就不得不说了,所谓的语言模型,就是通过前n-1个词汇来预测第n个词汇。用数学表示就是:P(wn∣w1,w2,...wn−1)P(w_n|w_1,w_2,...w_{n-1})P(wn∣w1,w2,...wn−1)其中wiw_iwi表...原创 2020-02-23 12:24:28 · 755 阅读 · 0 评论 -
知识图谱——TransH模型原理
知识图谱——TransH模型原理1 从TransE到TransH模型在之前的文章知识图谱——TransE模型原理中,我们介绍了TransE模型的基本原理,对于TransE模型而言,其核心思想为:h+r=th+r=th+r=t其中h是头实体向量,r是关系向量,t是尾实体向量。根据这个核心公式,我们不难发现其存在着一定的局限性。比如当存在多对一 关系的时候,假设(h1,r,t),(h2,r,t...原创 2020-02-14 00:03:28 · 8301 阅读 · 3 评论 -
知识图谱——TransE模型原理
知识图谱——TransE模型原理1 TransE模型介绍1.1 TransE模型引入在我们之前的文章中,提到了知识图谱补全任务的前提任务是知识表示学习,在知识表示学习中,最为经典的模型就是TransE模型,TransE模型的核心作用就是将知识图谱中的三元组翻译成embedding向量。1.2 TransE模型思想为了后面便于表示,我们先设定一些符号h 表示知识图谱中的头实体的向量。...原创 2020-02-12 16:27:20 · 13165 阅读 · 8 评论 -
知识图谱——知识补全算法综述
知识图谱——知识补全综述1、知识图谱补全概念目标:预测出三元组中缺失的部分,从而使得知识图谱变得更加完整。背景:对于一个知识图谱G而言,其基本的组成部分包括实体集E=e1,e2,...emE={e_1,e_2,...e_m}E=e1,e2,...em(m表示实体的个数)。关系集R=r1,r2,....rNR={r_1,r_2,....r_N}R=r1,r2,....rN(N表示关...原创 2020-02-12 13:57:03 · 12355 阅读 · 0 评论 -
NEO4J读书笔记——基本元素
一、NEO4J中的数据类型不同于传统的关系型数据库,NEO4J中的数据类型仅仅包含以下三种:1、节点:现实世界中的各个实体在NEO4J中被定义为一个节点。2、属性:实体的各种特征被定义为节点的属性。3、关系:不同实体之间的联系被定义为节点之间的关系。举例说明:现在有张三,赵四,王五三个人,其中张三和赵四是一个班级的同学,王五和张三同时住在一个小区。 吧...原创 2019-11-12 21:57:19 · 401 阅读 · 0 评论