行为识别
文章平均质量分 77
jk_algo
Video Comprehension, 天池 , kaggle
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
CVPR2016之A Key Volume Mining Deep Framework for Action Recognition论文阅读(视频关键帧选取)
该论文的主要思想是从视频中选取关键的帧卷(frame volume)用来行为识别。 该文章的意图是通过对视频中关键帧进行选取,减少与视频表达内容不相关的视频帧,实现视频中行为识别准确率的提升。 该文章主要从两个方面进行阐述:1、如何选取关键帧。2、如何检测并框住人体动作行为以便用来识别 下面我讲从两个方面阐述这个问题。如何选取关键帧 关键帧的选取采用了多示例学习的方法(multiple-in原创 2017-09-17 22:34:01 · 1933 阅读 · 3 评论 -
CVPR2017之ActionVLAD(对特征整合方式的改进)
背景 关于视频中的行为识别,通常会出现这种识别错误的情况:即一段视频中包含若干动作,譬如打篮球的视频中包含跑、跳、扔东西等多种行为,如何能正确地识别为投篮?当前行为识别主要有两种CNN结构:(1)第一种:3D spatio-temporal 卷积,这种方法识别准确率有待提升,优势是速度较快。(2)第二种,也就是目前常用的方法:two-stream architectures,将视频分解成图原创 2017-09-28 11:45:15 · 4513 阅读 · 1 评论 -
CVPR2017行为识别中的关键帧检测网络AdaScan
今天阅读了该论文,获得一些启发,先对其进行记录,以防后面会遗忘。该论文的核心思想是我要在视频中去除一些冗余帧,提升视频行为的判断力,保留有用信息,去除无关信息。论文的网络图如下所示:为何AdaptivePooling可以实现对关键帧的选取呢?原因在于Adaptive Pooling的结构所在。下面将讲述核心结构Adaptive Pooling。经过Deep Network获得的Fe原创 2017-09-24 23:22:27 · 5252 阅读 · 1 评论 -
基于VGG-Net的人体行为识别(Action Recognition)
Abstract:本文对论文’Towards Good Practices for Very Deep Two-Stream ConvNets’的复现。该论文采用了two-stream的卷积方法,该方法的鼻祖是VGG团队,该团队的论文是14年的’Two-Stream Convolutional Networks for Action Recognition in Videos’ ,从此开创了新的一派原创 2017-10-19 12:03:09 · 3103 阅读 · 0 评论 -
使用Motion-Vector实现Real-time人体行为识别
导言:由上一篇博客的方法实现人体行为识别,准确率高,但缺陷在于速度慢,最大的原因在于经典的two-stream的人体行为识别均使用光流图作为temporal net的输入。光流法速度慢,在应用中无法实时。这篇博客引用论文 Real-time Action Recognition with Enhanced Motion Vector CNNs——–Bowen Zhang, Limin Wang,原创 2017-10-28 22:25:41 · 7170 阅读 · 4 评论 -
基于temporal segment networks的行为识别
引言:根据ActionRecognize发展路线,最初是VGG组提出的Two-Stream Network实现,再他们之后,Limin Wang提出了VGGNet完成,加深了网络的深度,并提出防止过拟合的方法。得到了较好的效果。在ECCV2016,Limin Wang 提出了一种新的网络结构,即对双流网络的改进,称之为Temporal Segment Networks。 这篇博客主要讲述两个方面:1原创 2017-11-13 20:39:54 · 2220 阅读 · 0 评论
分享