详解何恺明新作MAE:通向CV大模型

作者丨科技猛兽
编辑丨极市平台
本文原创首发于极市平台,转载请获得授权并标明出处。

本文目录

1 MAE
1.1 Self-supervised Learning
1.2 Masked AutoEncoder (MAE) 方法概述
1.3 MAE Encoder
1.4 MAE Decoder
1.5 自监督学习目标函数 Reconstruction Target
1.6 具体实现方法
1.7 ImageNet 实验结果
1.8 masking ratio 对性能的影响
1.9 观察到的一些实验现象
1.10 训练策略
1.11 结果对比
1.12 Partial Fine-tuning

Self-Supervised Learning,又称为自监督学习,我们知道一般机器学习分为有监督学习,无监督学习和强化学习。 而 Self-Supervised Learning 是无监督学习里面的一种,主要是希望能够学习到一种通用的特征表达用于下游任务 (Downstream Tasks)。 其主要的方式就是通过自己监督自己。作为代表作的 kaiming 的 MoCo 引发一波热议, Yann Lecun也在 AAAI 上讲 Self-Supervised Learning 是未来的大势所趋。所以在这个系列中,我会系统地解读 Self-Supervised Learning 的经典工作。

1 MAE

论文名称:Masked Autoencoders Are Scalable Vision Learners

论文地址:

https://arxiv.org/a

从你提供的模型评估结果: ``` MAE: 0.01535 RMSE: 0.02015 ``` 我们可以进行如下分析来判断模型表现是好还是不好。 --- ## ✅ 模型评估指标解释 ### 1. **MAE(Mean Absolute Error):平均绝对误差** - 表示预测值与真实值之间的平均绝对差异。 - **值越小越好**。 - MAE = 0.01535 表示平均每个预测值与真实值的差距是 **0.01535 单位浓度值**。 ### 2. **RMSE(Root Mean Squared Error):均方根误差** - 与 MAE 类似,但对大误差更敏感(因为平方放大了误差)。 - 也 **值越小越好**。 - RMSE = 0.02015 表示预测值的“加权平均偏差”是 **0.02015 单位浓度值**。 --- ## ✅ 判断模型表现好坏的关键因素 | 因素 | 说 | |------|------| | **目标变量的取值范围** | 如果 `Y_concentration` 的取值范围是 0~1,那 0.015 的 MAE 是非常小的;如果取值是 0~0.05,那这个误差就偏大。 | | **实际应用场景** | 医学或生物浓度预测通常要求很高的精度,即使小误差也可能影响判断。 | | **对比基线模型** | 如果一个简单的平均值预测模型的 MAE 是 0.05,那你的模型就很好;如果是 0.01,则你的模型还有提升空间。 | --- ## ✅ 举例分析(假设) 假设你的 `Y_concentration` 是某种生物标志物的浓度值,取值范围大致在 0~1 之间: | 指标 | 数值 | 解释 | |------|------|------| | MAE | 0.01535 | 平均误差仅占目标范围的 **1.5%**,表现很好。 | | RMSE | 0.02015 | 说预测值整体偏差小,没有显的离群点导致误差突增。 | --- ## ✅ 总结:模型表现评价 | 指标 | 表现 | |------|------| | MAE = 0.01535 | ✅ 非常优秀 | | RMSE = 0.02015 | ✅ 非常优秀 | | RMSE > MAE | ✅ 正常情况,说误差分布较均匀 | > 🟢 **结论:在大多数实际应用中,这个模型的预测性能是相当优秀的,特别是在医学、生物等高精度要求的领域。** --- ## ✅
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值