MMAction:基于PyTorch的动作理解开源工具箱

MMAction:基于PyTorch的动作理解开源工具箱

mmaction An open-source toolbox for action understanding based on PyTorch mmaction 项目地址: https://gitcode.com/gh_mirrors/mm/mmaction

1. 项目基础介绍及编程语言

MMAction 是一个基于 PyTorch 的动作理解开源工具箱,由多媒体实验室(Multimedia Laboratory, CUHK)开发。它是 open-mmlab 项目的一部分,旨在为动作识别、动作检测等任务提供高效、灵活的工具。项目主要使用 Python 编程语言,同时使用 Cuda、C++ 和 Shell 脚本进行部分实现。

2. 项目核心功能

MMAction 的核心功能包括:

  • 动作识别:从剪辑视频中识别动作。
  • 动作定位:在未剪辑视频中检测动作。
  • 空间时间动作检测:在未剪辑视频中进行空间时间动作的检测。

此外,MMAction 支持多种数据集,并实现了多种动作理解框架,如:

  • 动作识别框架:TSN、I3D、SlowFast、R(2+1)D、CSN 等。
  • 动作检测框架:SSN。
  • 空间时间原子动作检测框架:Fast-RCNN 基线。

项目采用模块化设计,使得不同任务之间可以共享模块,如骨架、长期和短期采样方案等,从而提高模型的性能。

3. 项目最近更新的功能

  • OmniSource 模型发布(2020年8月22日):发布了与 Kinetics-400 和 OmniSourced 网络数据集联合训练的多个模型,这些模型在动作识别任务上表现出色,并在其他任务上具有很好的迁移性。
  • v0.2.0 版本更新(2020年3月15日):为动作识别构建了一个多样化的模型库,包括 TSN、I3D、SlowFast、R(2+1)D、CSN 等流行算法,性能与原始论文相当或更好。
  • v0.1.0 版本发布(2019年6月19日):MMAction 正式上线,提供了模型库、数据准备、开始使用等详细文档和示例。

mmaction An open-source toolbox for action understanding based on PyTorch mmaction 项目地址: https://gitcode.com/gh_mirrors/mm/mmaction

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

解杏茜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值