【图神经网络:原理与实战】4 训练技巧与大图方法 第一节 采样方法与训练批次框架

目录

4 训练技巧与大图方法

4.1 采样方法与批训练框架

4.1.1 邻居采样:随机采样、重要性采样

纯随机(均匀)采样与无偏估计

重要性采样与方差最小化

方差对多层采样的传播(递推界)

4.1.2 子图采样与层次化采样策略

子图采样的概率模型与无偏估计

分层(层次化)采样(two-stage / multi-stage sampling)

子图采样的优势与代价

4.1.3 采样偏差校正与无偏估计

Horvitz–Thompson(HT)估计的精确性

归一化重要性权重(self-normalized IS)与偏差

控制变量(control variate)与方差缩减

4.1.4 Mini-batch 设计与内存局部性优化

成本模型:计算与内存访问次数

批内局部性(locality)原则与图划分

Mini-batch 大小与吞吐的理论权衡

排序、布局与预取策略

本节小结(教材式要点回顾)

4.2 大图训练技术

4.2.1 图分割与分区策略

形式化目标

谱划分(Normalized cut)松弛推导

NP-hardness(问题的难度)

实践划分策略(edge-cut 与 vertex-cut)

多级(multilevel)方法与复杂度

4.2.2 图存储格式与高效 I/O 设计

基本格式与内存成本

I/O 与缓存模型

Cache-aware / cache-oblivious 布局与 reordering

分区存储与分布式 I/O

4.2.3 外存 / 流式训练与增量更新

外存训练的基本策略

Reservoir sampling 的无偏性(流中均匀抽样)

增量 / 在线更新与局部化证明

外存训练的复杂度与 I/O 成本模型(回顾)

4.2.4 异步更新与一致性控制

统一记号与问题设定

异步 SGD 的收敛性(渐近与有界延迟)

异步迭代与收缩映射(GNN 的并行化更新)

一致性控制策略

本节小结(教材要点)

4.3 推理、部署与工程实践

4.3.1 在线推理架构与缓存机制

一、架构要素与形式化模型

二、缓存命中率建模:独立参考模型与 Che 的近似

三、缓存分层与一致性策略

4.3.2 模型压缩:剪枝、量化、蒸馏方法

一、剪枝(Pruning):二阶近似与重要度衡量

二、量化(Quantization):误差模型与无偏化技巧

三、蒸馏(Distillation):知识转移的概率解释

4.3.3 延迟与吞吐量的工程权衡

一、基本排队论模型与延迟—吞吐关系

二、多服务器与尾延迟(tail latency)

三、系统设计准则(从数学到工程)

4.3.4 安全性、隐私与模型生命周期管理

一、安全性威胁与防护要点

二、差分隐私(DP)与机理证明

三、模型生命周期管理(ML Lifecycle)

小结(教材式要点回顾)


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值