AAAI论文最佳解读|Temporal-Distributed Backdoor Attack Against Video Based Action Recognition

论文标题

Temporal-Distributed Backdoor Attack against Video Based Action Recognition 基于视频的动作识别中的时间分布后门攻击

论文链接

Temporal-Distributed Backdoor Attack against Video Based Action Recognition论文下载

论文作者

Xi Li, Songhe Wang, Ruiquan Huang, Mahanth Gowda, George Kesidis

内容简介

本文提出了一种新的后门攻击方法,针对视频动作识别系统的脆弱性进行研究。尽管深度神经网络(DNN)在视频动作识别等领域取得了显著成功,但它们仍然容易受到后门攻击。传统的后门攻击通常通过在训练集中嵌入特定触发器来实现,而本文提出的攻击方法则利用视频的时间维度,设计了一种不可感知的时间分布触发器,能够在视频帧中隐蔽地传播。通过在多个视频识别基准(如UCF101和HMDB51)以及手语识别基准(希腊手语数据集)上进行广泛实验,验证了该攻击的有效性和隐蔽性。研究还探讨了影响攻击效果的多个因素,并揭示了一种称为“附带损害”的现象,进一步加深了对视频识别系统鲁棒性的理解。
在这里插入图片描述

分点关键点

  1. 时间分布后门攻击框架

    • 本文提出的攻击方法通过在变换域中添加扰动,植入一个不可感知的时间分布触发器。该触发器在整个视频中分布,能够有效规避现有的后门防御机制。通过选择合适的变换基础,攻击者可以在视频的表示中进行微小扰动,从而实现隐蔽性。
      在这里插入图片描述
  2. 实验验证与效果

    • 通过在UCF101、HMDB51和希腊手语数据集上进行实验,验证了所提攻击的有效性。实验结果表明,攻击后的模型在用户的验证集上仍能保持高准确率,同时在嵌入触发器的测试实例上表现出错误分类的特征,显示出攻击的隐蔽性。
      在这里插入图片描述
  3. 影响因素与“附带损害”现象

    • 研究深入探讨了多个影响攻击效果的因素,包括扰动的幅度和分布等。此外,提出了“附带损害”现象,指的是在攻击过程中可能对无关实例造成的意外影响,这为后续研究提供了新的视角。
  4. 与现有研究的对比

    • 本文的攻击方法与现有的图像后门攻击方法相比,具有更高的隐蔽性和有效性。通过利用视频的时间特性,所提方法能够有效规避传统的后门防御策略,展示了视频数据在后门攻击中的独特挑战和机遇。

中文关键词

  1. 后门攻击
  2. 视频动作识别
  3. 深度神经网络
  4. 时间分布触发器
  5. 隐蔽性
  6. 附带损害

AAAI论文合集:

AAAI论文合集

希望这些论文能帮到你!如果觉得有用,记得点赞关注哦~ 后续还会更新更多论文合集!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值