自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 Vi Transformer

文献中验证,ViT 在大规模数据集(如 JFT-300M)上的分类性能超越当时的 CNN(如 ResNet-50),且模型结构更简洁、通用性更强。其核心贡献不仅是提出一种新的视觉骨干网络,更开启了 “Transformer 主导视觉任务” 的新时代,后续衍生出 PVT、Swin-Transformer、CoAtNet 等一系列变体,均基于 ViT 的 “patch 序列 + Transformer 编码” 核心框架。

2025-12-11 18:14:08 821

原创 初学卡尔曼滤波

刻画在其中心位置附近散布程度的数学特征,反映了随机变量取值的离散程度,常用的符号有σ²,s²,Var(X),D(X)等。不同方差的正态分布用来描述两个随机变量之间线性相关程度 [4],常用的符号有cov(X, Y),σ(X, Y)等协方差 cov(X, Y) 定义为两个随机变量X和Y偏离其期望值的乘积的期望,即其中:E[X] 和 E[Y] 分别是随机变量 X 和 Y 的期望值, cov 是协的英文 “covariance” 的缩写。当协方差为正值时,表明随机X和Y倾向于同时偏离其平均值,呈正相关关系。

2025-11-04 13:27:45 980

原创 Pytorch学习笔记 DataLoader

collate_fn# 假设样本权重(处理类别不平衡)weights = torch.tensor([3.0, 1.0, 3.0, 1.0]) # 为每个样本分配权重。

2025-07-30 11:36:18 467

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除