关于时空图卷积神经网络(ST-GCN)的卷积核及其运算

本文详细解析了ST-GCN中图卷积核的构造过程,包括邻接矩阵的权重求和、对角矩阵初始化及更新,以及卷积核的最终形成。通过具体代码示例,阐述了图卷积操作的实现细节。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

st-gcn中图卷积的卷积核

卷积核构造步骤如下:
1.对邻接矩阵A中的所有权重(Aij为节点i与节点j的权重)进行axis=0的求和,形成[1,number_node]的向量V。
2.初始化一个[number_node,number_node]的矩阵Dn
3.依次遍历每个元素,若第i个元素大于0,则我们为Dn的对角元素Dn_ii赋值为V**-1。
4.在st-gcn中卷积核返回为:A左乘Dn(实际上在图卷积过程中,使用的爱因斯坦求和策略中,已经把卷积核转换成(Dn^(-1))A).

STGCN中的构造卷积核的代码如下:

def normalize_digraph(A): #A为节点邻接矩阵
    Dl = np.sum(A, 0) #按照axis=0对A进行所有特征向量的求和
    num_node = A.shape[0] #节点数
    Dn = np.zeros((num_node, num_node)) #初始化对角矩阵
    for i in range(num_node): #遍历DI中的每个元素
        if Dl[i] > 0:#若当前元素>0
            Dn[i, i] = Dl[i]**(-1) #求逆后赋值为Dn的对角元素
    AD = np.dot(A, Dn) #卷积核
    return AD

实际上,图卷积的卷积操作应如下:
在这里插入图片描述
其中D(-1)A才是卷积核,在st-gcn的图卷积操作中,作者已经利用爱因斯坦求和约定表示把上述代码中返回的AD转为D(-1)A.
该代码在tgcn.py中,对应的代码段如下:

    def forward(self, x, A):
        assert A.size(0) == self.kernel_size
        x = self.conv(x)
        n, kc, t, v = x.size()
        x = x.view(n, self.kernel_size, kc//self.kernel_size, t, v)
        x = torch.einsum('nkctv,kvw->nctw', (x, A))

        return x.contiguous(), A
### ST-GCN 模型架构详解 #### 正则化与 Batch Normalization 的应用 ST-GCN(Spatio-Temporal Graph Convolutional Network)是一种针对时空数据建模的深度学习框架,广泛应用于动作识别等领域。为了提高模型稳定性并减少过拟合现象,Batch Normalization 被引入每一层卷积操作之后[^3]。具体而言,BN 层通过标准化激活函数前的输入值来加速收敛过程,并缓解梯度消失或爆炸问题。 此外,Dropout 技术也被采用作为一种显式的正则化手段。通常情况下,在全连接层之前会加入一定比例的 Dropout 来随机丢弃部分神经元,从而增强泛化能力[^4]。 #### 各层通道数的设计原理 关于通道数设置方面,一般遵循从小到大逐渐增加的原则。例如初始几层可能设定为64个滤波器,随后逐步提升至128甚至更高如256等数值。这种渐增模式有助于先提取低级局部特征再过渡向更高级别的抽象表达形式。这样的设计可以有效捕捉不同尺度下的空间与时序关联特性。 #### 时间卷积核数量 对于时间维度上的处理,则主要依赖一维卷积运算完成。这些卷积核负责沿着时间轴滑动扫描节点间相互作用规律。其大小往往依据实验效果调整优化得出最佳参数组合。 #### Residual Connection 实现方式 残差连接允许较深网络仍能保持良好性能表现的关键因素之一就是它解决了深层网络训练过程中可能出现的退化解难题。在实际编码实现当中可以通过简单加法操作将未经变换或者仅经过线性投影转换过的原始输入叠加回最终输出端口处达成目标。 #### Pooling Layer 配置详情 池化层主要用于降低特征地图的空间分辨率进而达到降维目的同时保留最重要信息成分不丢失过多细节内容。按照惯例会在特定层次比如第四七两阶段安排相应操作步骤执行最大值选取策略(Max-Pooling)。 #### 全局平均池化(Global Average Pooling) 及 Softmax 分类环节说明 当所有先前预处理完毕后进入最后决策判断时刻时,全局平均池化将会把整个序列压缩成固定长度表示向量供后续SoftMax分类器利用计算各类别概率分布情况以便做出最有可能的选择结果. #### 优化方法(SGD Optimizer Usage) 至于求解算法选择上,默认推荐使用带momentum项的标准随机梯度下降法(Stochastic Gradient Descent with Momentum),因为它具备较快收敛速度又能较好避开局部极小点陷阱的优势特点. ```python import torch.nn as nn class Model(nn.Module): def __init__(self): super(Model,self).__init__() self.st_gcn_networks = nn.Sequential( st_gcn(in_channels=3,out_channels=64,kernel_size=(9,1)), ... st_gcn(in_channels=128,out_channels=256,kernel_size=(9,1)) ) self.fc = nn.Linear(256,num_class) def forward(self,x): out = self.st_gcn_networks(x) out = F.avg_pool2d(out,(1,T)) # Global average pooling over time dimension T. out = out.view(N,-1) predict_score = self.fc(out) return predict_score ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值