I Know What You Do Not Know: Knowledge Graph Embedding via Co-distillation Learning


🎉进入图谱洞见专栏 | 🚀查看更多专栏内容


研究问题

论文通过实验证明了文本信息和图结构信息是互补的,并使用共蒸馏学习来同时获取这两类信息

背景动机

  • 单纯的基于图结构的方法面临着不完备性和稀疏性问题,难以预测长尾实体
  • 作者比较了基于文本和基于结构的方法在不同实体上的表现,发现前者在长尾实体上的表现好于后者,而在多次出现的实体上的表现相反,说明它们是互补的
  • 图中当边数过多时,两个模型的效果都出现了较大的下降,对于基于文本的模型,这可能受到文本中的噪音、一词多义等因素的影响,对于基于结构的模型,可能是受到1-n、n-n等复杂关系模式的影响

在这里插入图片描述

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包

    打赏作者

    羊城迷鹿

    你的鼓励将是我创作的最大动力

    ¥1 ¥2 ¥4 ¥6 ¥10 ¥20
    扫码支付:¥1
    获取中
    扫码支付

    您的余额不足,请更换扫码支付或充值

    打赏作者

    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值