作者:CHEONG
公众号:AI机器学习与知识图谱
研究方向:自然语言处理与知识图谱
本文介绍六篇有关知识图谱预训练的优秀论文,大致上可分为两类,生成学习模型和对比学习模型。其中GPT-GNN模型是生成学习模型,模型灵感来源于自然语言处理中的GPT模型;GCC,GraphCL,DGI,InfoGraph和Multi-View这五篇属于对比学习模型。30页完整汇报ppt获取请关注公众号回复关键字:知识图谱预训练
一、背景知识
图谱预训练作用:图神经网络(GNNs)已被证明是建模图结构数据的强大工具。然而,训练GNN模型通常需要大量的特定任务的标记数据,而获取这些数据往往非常昂贵。利用自监督GNN模型对未标记图谱数据进行预训练是减少标记工作的一种有效方法,然后将预训练学习到的模型可用在只有少量标签图谱数据的下游任务。
Contrastive Learning 对比学习: 自监督学习方案常用的两种方式,一种是生成式学习,另一种就是对比学习。对比学习主要利用了样本间的约束信息构造辅助任务,通过构建正样本和负样本,然后度量正负样本的距离进行自监督学习。对比学习的关键就在于如何合理定义正负样本,也是难点所在。
Generative Learning 生成式学习:生成式方法以自编码器为代表,在自编码器中对数据样本编码成特征再解码重构,以此来学习样本的特征表达。
二、Paper PPT
三、往期精彩
【知识图谱系列】探索DeepGNN中Over-Smoothing问题
【知识图谱系列】知识图谱表示学习综述 | 近30篇优秀论文串讲
【知识图谱系列】动态知识图谱表示学习综述 | 十篇优秀论文导读
Transformer模型细节理解及Tensorflow实现
GPT,GPT2,Bert,Transformer-XL,XLNet论文阅读速递
Word2vec, Fasttext, Glove, Elmo, Bert, Flair训练词向量教程+数据+源码
汇报完整版ppt可通过关注公众号后回复关键词:知识图谱预训练 来获得,原创不易,有用就点个赞呀!