【系列论文研读】Self-supervised learning:rotating,M&M tuning,Jigsaw++

本文介绍了自监督学习在3D上下文特征学习、视觉表示学习以及视频几何变换中的应用。研究显示增加未标记数据的规模和使用更大的预训练模型可以提升自监督学习的效果。同时,Mix-and-Match调优方法被用于自我监督语义分割任务,通过颜色化预训练、M&M调优和目标分割任务实现性能提升。此外,Jigsaw++任务通过替换网格中的图像块以增强学习难度。最后,DeepCluster方法利用聚类产生伪标签进行预训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

How to learn from unlabeled volume data: Self-Supervised 3D Context Feature Learning

Author:Maximilian Blendowski(University of L¨ubeck, Germany)

提出的2.5D的自监督方法,预测不同slice之间某两点的相对位移。使用两个预测网络:直接数值预测和热力图方法。主要用于胸片数据。

 

Scaling and Benchmarking Self-Supervised Visual Representation Learning

Author:Priya Goyal 等(Facebook)

提出了几个self-supervised 的trick:

  1. increasing the size of pre-training data improves the transfer learning performance for both the Jigsaw and Colorization methods

  2. Pre-train 的模型越大越好(resnet50>Alexnet)

 

Self-supervised Spatiotemporal Feature Learning by Video Geometric Transformations

  • 处理数据:video
  • 方法:
    • a set of pre-designed geometric transformations (e.g. rotating 0°, 90°, 180°, and 270°) are applied to each video
    • 预测 transformations (e.g. rotations)

 

Mix-and-Match Tuning for Self-Supervised Semantic Segmentation(2017CVPR)

author: Xiaohang Zhan(港中文)

  • 分为3steps:1)pre-train learning by colorization;2)M&M tuning; 3)target segmentation task
  • M&M tuning:1)对图像采取图像块,去除严重重叠的图像块,根据标记的图像真值提取图像块对应的 unique class labels(比如车、人) ,将这些图像块全部混合在一起。2) fine-tuning the network by triplet loss

 

Boosting Self-Supervised Learning via Knowledge Transfer

  • 整体框架图
  • (a)中的pretext task是Jigsaw++ task
    • In Jigsaw++, we replace a random number of tiles in the grid (up to 2) with (occluding) tiles from another random image

 

DeepCluster

使用聚类对每个类产生伪标签,用伪标签作为预训练。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值