自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 资源 (1)
  • 收藏
  • 关注

原创 STGODE快速读懂

神经 ODE 类型方法的数值稳定性、求解误差与求解器选择(步长、方法)息息相关,需要特别设计和调参,否则可能造成训练不稳定或效率低下。大多数 STGNN 与 STGODE 类模型都假定图的结构(邻接矩阵)是已知或可预定义的,实际应用中这种先验信息往往不可得或不稳定。STGODE 的 ODE 结构可视为更深层次连续系统,可以更有效捕获远距离空间相关性。对时间维度(T)通常是单独处理的,而不是把整个时间序列作为连续整体来建模。并不存在不同时间节点之间的关联,对于T=t,独立进行计算。TCN的输出是k=0。

2026-01-05 18:21:55 221

原创 快速读懂DGCRN

动态图 + 混合图 + GraphGRU 能同时捕捉空间和时间依赖。计算复杂度高:动态图矩阵乘法和 GraphGRU 对大规模图不友好。自回归误差累积:多步预测时前一步预测误差会传递。图卷积嵌入到 GRU 内部。每个时间步动态生成图。

2026-01-03 23:01:08 140

原创 快速读懂AGCRN

DAGG 生成的 A_hat 一般是静态的(共享整个序列),如果节点关系随时间动态变化,AGCRN 不能直接捕捉。时间维度处理仍依赖 RNN(对长序列可能会比 Transformer/Attention 慢或梯度更难优化)虽然比全局 attention 轻量,但 AGCN 仍需 NxN 矩阵操作,节点很多时可能内存消耗大。第一步是在BxN维度上右乘NxN的邻接矩阵,第二步是BxNxF右乘FxD。node_emb 是随机初始化的,需要训练充分,否则容易收敛慢。

2026-01-02 17:01:59 818

原创 快速读懂STFGNN

把时序关系也当成图来学 的空间-时间预测模型,思想很新,但工程性和泛化性都一般,更像一次结构探索而不是终极解法。首先对于Fusion Graph,原文只给出了概念:时间图中的节点代表时间片,边的权重由交通模式的相似度决定。在时间维 T 上做 GRU / Attention(NxF,B上直接复制),得到新的节点特征表示。时间片之间的距离(DTW)(第 i 个时间片的整张图状态和第 j 个时间片的整张图状态像不像?注意:原文不是这样的,但是之后的工作大部分都这样做。总输出是B,T,N,N。

2026-01-02 00:02:36 810

原创 高速读懂GMAN

注意这里STE会生成两个STE_hist和STE_future,hist进入encoder,future直接去Cross attention。然后是TE,逐t进行计算,W是Nx(Td+7),TE最终是TxN的,在D维度上复制成TxNxD。SE是一个NxD的可学习参数矩阵,然后在T维度上复制成TxNxD。然后加一个STE参数矩阵,由SE和TE构成。然后这个STE在B维度上复制,最后与H相加。先线性映射到dim维度上。

2025-12-31 21:54:57 332

原创 快速看完MTGNN

因为 空间关系随时间尺度变化,TC 通过 dilation 把不同尺度分离。MTGNN为什么要 TC + GC 交替?该网络学的是不同时间尺度下的不同图。

2025-12-30 23:35:35 164

原创 快速读懂GraphWaveNet

GraphWaveNet是一种新型时空图神经网络,其核心创新在于让邻接矩阵A参与训练。模型通过堆叠多个Graph WaveNet Block处理输入数据,每个Block包含三个关键组件:1)扩张因果时间卷积(Dilated Causal TCN),仅使用历史信息进行预测;2)门控TCN结构(tanh⊙sigmoid);3)多图卷积层(前向、后向和自适应图)。特别地,自适应邻接矩阵Aadp通过可训练的节点嵌入(E1,E2)生成,softmax(ReLU(E1E2^T))动态学习空间关系。模型还整合了残差连接和

2025-12-29 18:04:26 630

原创 快速阅读ASTGCN

原文k=3 k太大 → 节点表示趋同。

2025-12-28 19:26:13 246

原创 快速读懂DCRNN

DCRNN(Diffusion Convolutional Recurrent Neural Network)通过将扩散图卷积嵌入GRU门控机制,实现了对有向空间依赖和长期时序动态的联合建模。模型采用Encoder-Decoder框架,其中Encoder和Decoder均采用DCGRU单元,利用扩散卷积处理图结构数据。扩散卷积通过多步随机游走模拟信息传播过程,支持双向信息流动,能有效捕获节点及其多跳邻居的特征。相比同期STGCN采用的图卷积+时序卷积方案,DCRNN选择了图卷积+RNN的技术路线,特别适用于

2025-12-27 22:14:41 482

原创 STGCN高效阅读

对 (B) 施加 Sigmoid 函数,将其压缩到 ((0, 1)) 区间,作为门控信号;将输入 (x) 通过线性层(如全连接层或卷积层)进行投影,并将通道数扩展为原来的两倍。hop代表一次跳跃,K-hop:从中心节点出发,经过最多K条边能到达的所有节点的集合。将线性变换后的结果沿通道维度均匀分割为两部分,分别记为 (A) 和 (B)分别对应STGCN两种变体,区别在于空间块的图卷积方式。然后将 (A) 与该门控信号逐元素相乘,得到最终输出。例如:从 (C) 维映射到 (2C) 维。最后是切比雪夫GCN。

2025-12-26 12:26:48 377

原创 YOLOv2目标检测

  YOLOv2使用Darknet19的网络结构,但是Darknet19主要用于图像分类,与YOLOv2存在不同。YOLOv2网络结构YOLOv2 网络结构YOLOv2网络结构YOLOv2卷积层结构:先验框(Anchor Box)借鉴了Faster RCNN,也使用先验框(Anchor Box),YOLOv2一般每个grid设置9个先验框,每张图像13x13个grid。如何初始化先验框的大小?根据数据中目标的宽w和高h,用聚类算法生成(如K-means)需要确定的anchor boxes的参数:

2024-10-31 13:47:27 1349

原创 Python通过解释器自动安装所需的包

移植python环境麻烦?服务器没有所需的包频频报错?用两组python代码帮你解决!读取 packages.txt文件并安装其中的包。读取当前环境内的包名并储存。手动设置包名,一键安装。

2024-10-31 09:23:09 355

原创 激活函数ReLU带来的神经元死亡问题

在使用 ReLU 激活函数及其变种激活函数时,输入小于零的神经元会输出零。这可能会带来神经元死亡问题。

2024-10-22 21:56:58 1886

原创 YOLOv1目标检测

在YOLOv1(2016)提出之前,R-CNN系列算法在目标检测领域独占鳌头。R-CNN系列检测精度高,但是由于其网络结构是双阶段(two-stage)的特点,使得它的检测速度不能满足实时性双阶段区域提议(Region Proposal):在第一阶段,模型会生成一系列可能包含目标的区域。这些区域被称为“候选框”或“区域提议”。常用的算法有Selective Search等。

2024-10-22 10:37:01 1592

差分算法M文件

使用MATLAB写出的 差分算法M文件,是一种最优化搜索算法

2018-10-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除