Implicit Graph Neural Networks

提出了一种名为隐式图神经网络(IGNN)的框架,该框架基于不动点平衡方程的解进行预测,旨在解决现有图神经网络(GNN)难以捕捉长程依赖的问题。通过对Perron-Frobenius理论的应用,建立了适定性的充分条件,并提出一种投影梯度法用于高效训练。实验证明IGNN能有效捕捉远程依赖并超越现有的GNN模型。
部署运行你感兴趣的模型镜像

https://proceedings.neurips.cc/paper/2020/file/8b5c8441a8ff8e151b191c53c1842a38-Paper.pdf
在这里插入图片描述

摘要

图神经网络(GNN)是广泛使用的深度学习模型,可从图结构数据中学习有意义的表示。

由于底层循环结构的有限性,当前的GNN方法可能难以捕获底层图的长程依赖关系。

为了克服这个困难,我们提出了一种称为隐式图神经网络(IGNN)的图学习框架,其中的预测是基于关于隐式定义的“状态”的不动点平衡方程的解。

我们使用Perron-Frobenius理论得出框架适定的充分条件。

利用隐式微分,我们导出了一种可行的投影梯度法来训练框架。

在广泛的任务上进行的实验表明,IGNN 能够持续捕获远程依赖关系,并且性能优于最新的GNN模型。

文章贡献

在这项工作中,我们提出了隐式图神经网络(IGNN)框架,以解决循环GNN的评估和训练问题。

我们首先通过基于Perron-Frobenius理论的严格数学框架来分析图神经网络(Berman and Plemmons,1994),以建立收敛的一般适定性条件。

我们证明大多数现有分析都是我们结果的特例。

在训练方面,我们提出了一种投影梯度法来有效地训练 IGNN,其中我们利用隐式微分方法来获得精确的梯度,并在易处理的凸集上使用​​投影来保证适定性。

我们表明,以前的递归图神经网络梯度方法可以解释为IGNN的近似值。

此外,我们将IGNN扩展到异构网络的情形。

最后,我们与现有方法进行了全面的比较,并证明了我们的方法可以有效地捕获远程依赖关系,并且在各种任务上均优于最新的GNN模型。

IGNN

在这里插入图片描述

  • 不动点方程 (2b) 可以视为将图卷积执行无限次后的收敛状态
  • W , b Ω , f Θ W, b_{\Omega},f_{\Theta} W,bΩ,fΘ 是待学习的
  • 对于任意的 ϕ , W \phi, W ϕ,W,给定输入 U U U,不动点可能不唯一
  • 作者给出了保证不动点唯一的充分条件:
    在这里插入图片描述
  • 充分条件实际上是对 W W W 的一个约束条件,但是由于 PF特征值 是个非凸函数,进一步把它改成更严格的对无穷诱导范数 ∥ W ∥ ∞ \|W\|_{\infty} W 的约束,然后用投影梯度法来求解带约束的优化问题
    在这里插入图片描述
  • Perron-Frobenius 定理
    每个非负方阵 M M M 都有一个实的非负特征值,该值在 M M M 的所有特征值中具有最大的模. M M M 的该非负特征值称为 Perron-Frobenius 特征值

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

由于提供的引用内容中未涉及隐式神经表示的相关信息,下面将结合专业知识介绍隐式神经表示的原理、应用和研究进展。 ### 原理 隐式神经表示(Implicit Neural Representations, INRs)是一种利用神经网络来表示连续信号(如图像、音频、3D 形状等)的方法。其核心思想是将输入空间(例如图像的像素坐标、3D 空间中的点坐标)映射到输出空间(例如像素的颜色值、3D 点的密度值)。具体而言,INRs 使用一个神经网络,输入是连续空间中的坐标,输出是该坐标处的属性值。通过训练这个神经网络,使其能够学习到输入空间和输出空间之间的映射关系,从而实现对连续信号的隐式表示。例如,对于一张图像,输入可以是图像中每个像素的二维坐标,输出则是该像素的 RGB 颜色值。 ### 应用 - **计算机图形学**:在 3D 建模和渲染中,隐式神经表示可以用于表示复杂的 3D 形状,如人体、动物等。与传统的显式表示方法(如多边形网格)相比,INRs 能够更自然地处理形状的细节和变形,并且可以实现更高质量的渲染效果。 - **图像处理**:INRs 可以用于图像超分辨率、图像编辑和图像生成等任务。通过学习图像的隐式表示,神经网络可以生成高分辨率的图像,或者对图像进行修改和合成。 - **音频处理**:在音频领域,隐式神经表示可以用于音频合成、音频降噪和音频特征提取等任务。将音频信号表示为连续的函数,能够更好地捕捉音频的时域和频域特征。 ### 研究进展 近年来,隐式神经表示在学术界和工业界都受到了广泛的关注。研究人员不断探索如何改进 INRs 的性能和效率,例如提出了新的网络架构、优化算法和训练策略。同时,INRs 的应用领域也在不断扩展,涉及到医学成像、机器人感知、虚拟现实等多个领域。一些研究还将隐式神经表示与其他深度学习技术相结合,如生成对抗网络(GANs)和变分自编码器(VAEs),以实现更强大的功能。 ```python # 以下是一个简单的隐式神经表示的代码示例(用于图像表示) import torch import torch.nn as nn # 定义一个简单的神经网络 class INR(nn.Module): def __init__(self, input_dim=2, output_dim=3, hidden_dim=256, num_layers=4): super(INR, self).__init__() layers = [] layers.append(nn.Linear(input_dim, hidden_dim)) layers.append(nn.ReLU()) for _ in range(num_layers - 2): layers.append(nn.Linear(hidden_dim, hidden_dim)) layers.append(nn.ReLU()) layers.append(nn.Linear(hidden_dim, output_dim)) self.model = nn.Sequential(*layers) def forward(self, x): return self.model(x) # 创建一个 INRs 实例 inr = INR() # 示例输入(图像坐标) input_coords = torch.randn(100, 2) # 100 个二维坐标 output = inr(input_coords) print(output.shape) # 输出形状应为 (100, 3) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颹蕭蕭

白嫖?

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值