- 博客(3)
- 收藏
- 关注
原创 CAE详解
MAE是基于可见patch的隐藏表示以及可见patch进行重建CAE是基于可见patch的隐藏表示,引入latent context regressor(隐式上下文回归器)预测出mask patch的隐藏表示。要求encoder更好的进行表征学习。而decoder更好的进行pretext task。由此将“表征学习”和“前置/代理任务”进行分离。网络1)encoder采用ViT,可见的patch经过encoder得到隐藏表示Zv2)latent context regressor,基于可..
2022-05-19 18:31:08
2053
原创 MAE详解
目录一、介绍二、网络结构1. encoder2. decoder3. LOSS三、实验全文参考:论文阅读笔记:Masked Autoencoders Are Scalable Vision Learners_塔_Tass的博客-优快云博客masked autoencoders(MAE)是hekaiming大佬又一新作,其做法很简单,就是随机mask掉一部分patches并重建这部分丢失的像素,可看作是一个可扩展的(scalable)自监督学习器,能极大加速模型的训练速度
2022-05-18 20:09:34
23779
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人