- 博客(3)
- 收藏
- 关注
原创 Vi Transformer
文献中验证,ViT 在大规模数据集(如 JFT-300M)上的分类性能超越当时的 CNN(如 ResNet-50),且模型结构更简洁、通用性更强。其核心贡献不仅是提出一种新的视觉骨干网络,更开启了 “Transformer 主导视觉任务” 的新时代,后续衍生出 PVT、Swin-Transformer、CoAtNet 等一系列变体,均基于 ViT 的 “patch 序列 + Transformer 编码” 核心框架。
2025-12-11 18:14:08
821
原创 初学卡尔曼滤波
刻画在其中心位置附近散布程度的数学特征,反映了随机变量取值的离散程度,常用的符号有σ²,s²,Var(X),D(X)等。不同方差的正态分布用来描述两个随机变量之间线性相关程度 [4],常用的符号有cov(X, Y),σ(X, Y)等协方差 cov(X, Y) 定义为两个随机变量X和Y偏离其期望值的乘积的期望,即其中:E[X] 和 E[Y] 分别是随机变量 X 和 Y 的期望值, cov 是协的英文 “covariance” 的缩写。当协方差为正值时,表明随机X和Y倾向于同时偏离其平均值,呈正相关关系。
2025-11-04 13:27:45
980
原创 Pytorch学习笔记 DataLoader
collate_fn# 假设样本权重(处理类别不平衡)weights = torch.tensor([3.0, 1.0, 3.0, 1.0]) # 为每个样本分配权重。
2025-07-30 11:36:18
467
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅