知识图谱de构建与应用(七):大规模知识图谱预训练

本文深入探讨了知识图谱预训练的概念,包括预训练语言模型和知识图谱预训练模型的区别。强调了预训练在商品知识图谱中的重要性,介绍了商品知识图谱静态和动态预训练模型,以及它们在商品分类、对齐、推荐等业务场景的应用。此外,还讨论了知识增强的预训练模型,如SentiLR、ERNIE和K-BERT,以及它们如何融入外部知识以提升模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

7.1 知识预训练概述

7.1.1 预训练语言模型

7.1.2 知识图谱中的结构化上下文信息

7.1.3 基于知识增强的预训练模型

7.1.4 预训练知识图谱模型与预训练语言模型的区别

7.2 商品知识图谱静态预训练模型

7.2.1 预训练知识图谱查询框架

7.2.2 预训练知识图谱查询模块

7.2.3 预训练知识图谱查询服务

7.2.4 在任务模块中使用查询服务

7.3 商品知识图谱动态预训练模型

7.3.1 上下文模块和整合模块

7.3.2 预训练阶段和微调阶段

7.4 商品知识图谱预训练实践案例

7.4.1 基于知识图谱预训练的商品分类

7.4.2 基于知识图谱预训练的商品对齐

7.4.3 基于知识图谱预训练的商品推荐

7.4.4 基于商品知识预训练的实体识别

7.4.5 基于商品知识预训练的关系抽取与属性补齐

7.4.6 基于商品知识预训练的标题生成

7.5 总结与展望


本章首先介绍预训练知识图谱模型预训练语言模型的异同点;然后基于商品知识图谱,介绍知识图谱静态预训练模型、知识图谱动态预训练模型的相关研究;最后介绍商品知识图谱的静态和动态预训练技术在业务场景中如何落地,以及相关技术带来的业务效果提升。

7.1 知识预训练概述

知识图谱虽然包含大量有价值的信息,但通常以三元组形式的结构化数据存储,机器无法直接读取和使用。表示学习能将知识图谱中的实体和关系映射到连续空间中用向量表示,并能利用向量的代数运算,很好地建模知识图谱中的结构特征。向量表示被广泛应用在知识图谱相关任务及NLP任务上,且都取得了不错的效果。针对不同的建模任务和目标,相关工作已经提出了不同的知识图谱表示学习方法。随着GPT、BERT、XLNET等预训练语言模型在多项自然语言处理领域任务上刷新了之前的最好效果,预训练受到了各界的广泛关注。预训练在本质上是表示学习的一种,其核心思想是“预训练和微调”方法,具体包括以下步骤:首先利用大量的自然语言数据训练一个语言模型,获取文本中包含的通用知识信息;然后在下游任务微调阶段,针对不同的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值