动作识别——Multi-Model Domain Adaptation for Fine-Grained Action Recognition——CVPR2020 oral

本文探讨了细粒度动作识别领域的挑战,特别是环境偏见问题,提出了利用多模态自监督和模态对抗训练的解决方案。通过引入一种新的数据集,文章强调了未来工作在音频模态上的潜在研究方向。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者信息

Abstract

Fine-grained action recognition datasets exhibit environmental bias, where multiple video sequences are captured from a limited number of environments. Multi-modal nature of video(视频的多模态性),提出的方法一个是multi-modal self-supervision,还有一个是adversarial training per modality

Introduction

fine-grained action recognition,
举的例子
不同数据集的比较
Few works have attempted deep UDA for video data《Temporal attentive alignment for large-scale video domain adaptation, ICCV2019》《Deep domain adaptation in action space, BMVC2018》

Conclusion

modality指的是两种信息(optical flow和RGB信息),future work包含audio

Key points: Motivation很好; 提出的新数据集

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值