ICML 2023|《INGRAM: Inductive Knowledge Graph Embedding via Relation Graphs》论文细读+理解笔记

模型名称INGRAM

代码:GitHub - bdi-lab/InGram: InGram: Inductive Knowledge Graph Embedding via Relation Graphs (ICML 2023)

注:我太懒了,有些不想手打,一些插图直接用组会汇报PPT和OneNote笔记的了,但大多都可以复制。

摘要

        归纳知识图谱补全被认为是预测在训练过程中未观察到的新实体之间缺失的三联体的任务。虽然大多数归纳知识图谱补全方法假设所有实体都可以是新的,但它们不允许在推理时出现新的关系。这个限制禁止现有的方法适当地处理现实世界的知识图谱,其中新的实体伴随着新的关系。在本文中,我们提出了一种归纳知识图谱嵌入方法INGRAM,它可以在推理时生成新关系和新实体的嵌入。给定一个知识图谱,我们将关系图定义为由关系和它们之间的亲和权值组成的加权图。在关系图和原始知识图谱的基础上,INGRAM学习如何利用注意机制聚合相邻嵌入来生成关系嵌入和实体嵌入。实验结果表明,在不同的归纳学习场景下,INGRAM优于14种不同的最先进的方法。

一、研究现状和目的

        对实体,归纳推理

        对关系,传导推理

        目的:归纳知识图谱嵌入---------->知识图谱补全    

二、相关知识

        1、关系图:由关系和它们之间的亲和权值组成的加权图。(图的一种形式,其中节点表示实体,边表示实体之间的关系,边上还可以有权重,用于表示关系的强度或重要性)

        2、关系间的亲和权值:用于量化两个实体(节点)之间关系强度的数值。

        3、加权图:边上带有权重(weight)的图,图的形式可以是无向图或有向图,权重可以用于表示边的强度、距离、成本、容量等。

        4、注意力机制:在处理某个数据点(如词或像素)时,根据其重要性对其他相关数据点进行加权,从而集中关注最相关的信息,从而提高模型的性能。

        5、嵌入:将知识图谱中的节点(实体)和边(关系)映射到低维向量空间中,嵌入不仅能捕捉实体和关系的语义信息,还能使复杂的图结构变得易于操作和分析。

        6、聚合:对每个节点,根据邻居节点的嵌入和对应的注意力权重进行加权求和,从而得到该节点的新嵌入。

        7、嵌入对知识图谱补全的作用:

        (1)嵌入技术通过将知识图谱中的实体和关系映射到低维向量空间中,捕捉了其语义和结构特征,

### LlamaIndex 多模态 RAG 实现 LlamaIndex 支持多种数据类型的接入与处理,这使得它成为构建多模态检索增强生成(RAG)系统的理想选择[^1]。为了实现这一目标,LlamaIndex 结合了不同种类的数据连接器、索引机制以及强大的查询引擎。 #### 数据连接器支持多样化输入源 对于多模态数据的支持始于数据收集阶段。LlamaIndex 的数据连接器可以从多个异构资源中提取信息,包括但不限于APIs、PDF文档、SQL数据库等。这意味着无论是文本还是多媒体文件中的内容都可以被纳入到后续的分析流程之中。 #### 统一化的中间表示形式 一旦获取到了原始资料之后,下一步就是创建统一而高效的内部表达方式——即所谓的“中间表示”。这种转换不仅简化了下游任务的操作难度,同时也提高了整个系统的性能表现。尤其当面对复杂场景下的混合型数据集时,良好的设计尤为关键。 #### 查询引擎助力跨媒体理解能力 借助于内置的强大搜索引擎组件,用户可以通过自然语言提问的形式轻松获得所需答案;而对于更复杂的交互需求,则提供了专门定制版聊天机器人服务作为补充选项之一。更重要的是,在这里实现了真正的语义级关联匹配逻辑,从而让计算机具备了一定程度上的‘认知’功能去理解和回应人类意图背后所蕴含的意义所在。 #### 应用实例展示 考虑到实际应用场景的需求多样性,下面给出一段Python代码示例来说明如何利用LlamaIndex搭建一个多模态RAG系统: ```python from llama_index import GPTSimpleVectorIndex, SimpleDirectoryReader, LLMPredictor, PromptHelper, ServiceContext from langchain.llms.base import BaseLLM import os def create_multi_modal_rag_system(): documents = SimpleDirectoryReader(input_dir='./data').load_data() llm_predictor = LLMPredictor(llm=BaseLLM()) # 假设已经定义好了具体的大型预训练模型 service_context = ServiceContext.from_defaults( chunk_size_limit=None, prompt_helper=PromptHelper(max_input_size=-1), llm_predictor=llm_predictor ) index = GPTSimpleVectorIndex(documents, service_context=service_context) query_engine = index.as_query_engine(similarity_top_k=2) response = query_engine.query("请描述一下图片里的人物表情特征") print(response) ``` 此段脚本展示了从加载本地目录下各类格式文件开始直到最终完成一次基于相似度排序后的top-k条目返回全过程。值得注意的是,“query”方法接收字符串参数代表使用者想要询问的内容,而在后台则会自动调用相应的解析模块并结合先前准备好的知识库来进行推理计算得出结论。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值