Fine-grained Dynamic Network for Generic Event Boundary Detection

Fine-grained Dynamic Network for Generic Event Boundary Detection

提出原因

如下图所示, 通用事件边界是无分类的,包含各种低级和高级语义边界,例如有仅仅通过镜头外观更改的低级边界(检测较为容易,图a),也有具有丰富语义信息,需要深层网络建模才能检测出来的高级边界(图b)。
但以往的方法往往都是提出一个网络架构,对所有的边界信息进行相同的建模,使得计算低级边界时成本也大,并且有可能因为本就能够简单分辨的特征被提取的过于复杂从而导致性能下降,因此本文提出了一种多出口网络,通过自动学习子网分配,允许对各种边界进行自适应推理。对应于低层语义信息的边界,例如镜头变化,仅通过具有浅层的子网来捕获外观信息和简单的时间依赖性。而需要高级语义进行边界识别的边界将遍历整个网络进行深入的时空建模。通过以细粒度的方式推断不同的输入,通用事件边界的处理可以被专门化以增强整个检测系统的性能和效率。
这样做的好处是:考虑到骨干网络f的计算成本明显大于检测器h的计算成本(超过FLOP的10倍),允许更多帧提前退出所获得的效率远远超过了难以检测的样本遍历所有检测器所造成的额外负担。
在这里插入图片描述

贡献点

设计了一个网络架构即DyBDet,主要由两个关键设计组成:
1.多出口网络,用于在视频片段级别进行自适应推理;(可以在不需要人工干预的情况下,自动地为视频中的不同片段(即不同时间段或事件)分配适当的子网络(subnet),以便对这些片段中的边界进行更加精确和细致的检测。)
2.多阶差分检测器,通过捕获最具特色的运动模式进行边界检测来实现动态性。(替换了原来简单的帧差检测器)

</

由于给定引用中未涉及“基于小波和自适应坐标注意力引导的细粒度残差网络用于图像去噪(Wavelet and Adaptive Coordinate Attention Guided Fine - Grained Residual Network for Image Denoising)”的直接信息,下面基于通用的专业知识进行介绍。 ### 相关研究 在图像去噪领域,传统的去噪方法如均值滤波、中值滤波等,虽然简单有效,但在去除噪声的同时会模糊图像细节。随着深度学习的发展,卷积神经网络(CNN)在图像去噪任务中取得了显著进展。基于小波和自适应坐标注意力引导的细粒度残差网络是在已有研究基础上的进一步创新。 小波变换具有多分辨率分析的特性,能够将图像分解为不同尺度和方向的子带,有助于捕捉图像的局部和全局特征。自适应坐标注意力机制则可以根据图像内容自适应地调整注意力分布,增强对重要特征的关注。细粒度残差网络通过学习残差信息,能够更精确地恢复图像的细节。 ### 原理 - **小波变换**:将图像进行小波分解,得到不同尺度和方向的子带图像。这些子带图像包含了图像的低频和高频信息,低频子带反映了图像的整体轮廓,高频子带则包含了图像的细节和边缘信息。在去噪过程中,可以对不同子带进行不同的处理,以更好地保留图像的细节。 - **自适应坐标注意力机制**:该机制通过对特征图的通道和空间维度进行建模,自适应地计算注意力权重。在图像去噪中,它可以帮助网络聚焦于噪声严重的区域和图像的重要特征,提高去噪效果。 - **细粒度残差网络**:网络的输入是带噪图像,输出是预测的噪声图像。通过将带噪图像减去预测的噪声图像,得到去噪后的图像。残差网络的设计使得网络更容易学习到图像的残差信息,从而提高去噪的精度。 ### 应用 - **医学图像去噪**:在医学成像中,图像噪声会影响医生对病情的诊断。基于小波和自适应坐标注意力引导的细粒度残差网络可以有效去除医学图像中的噪声,提高图像的清晰度和对比度,帮助医生更准确地诊断疾病。 - **卫星图像去噪**:卫星图像在传输和采集过程中会受到各种噪声的干扰。该网络可以用于去除卫星图像中的噪声,提高图像的质量,为地理信息系统、环境监测等领域提供更准确的数据。 - **监控图像去噪**:监控摄像头在低光照、恶劣天气等环境下拍摄的图像往往存在较多噪声。使用该网络进行去噪处理,可以提高监控图像的清晰度,增强对目标的识别能力。 ```python # 以下是一个简单的残差块示例 import torch import torch.nn as nn class ResidualBlock(nn.Module): def __init__(self, in_channels, out_channels): super(ResidualBlock, self).__init__() self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.relu = nn.ReLU(inplace=True) self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, padding=1) def forward(self, x): residual = x out = self.conv1(x) out = self.relu(out) out = self.conv2(out) out += residual out = self.relu(out) return out ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值