自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(51)
  • 收藏
  • 关注

原创 《Removal and Selection: Improving RGB-Infrared Object Detection viaCoarse-to-Fine Fusion》论文分享(侵删)

原文链接:https://arxiv.org/abs/2401.10731author={Tianyi Zhao and Maoxun Yuan and Feng Jiang and Nan Wang and Xingxing Wei}摘要近年来,可见光(RGB)和红外(IR)图像中的目标检测得到了广泛的应用。利用RGB和IR图像的互补特性,目标探测器从白天到晚上提供可靠和稳健的目标定位。现有的融合策略直接将RGB和IR图像注入卷积神经网络,导致检测性能较差。由于RGB和IR特征具有特定于通道的噪声,这些策

2025-12-15 11:42:53 475

原创 《Representation Space Constrained Learning with Modality Decoupling for Multimodal Object Detection》

author={YiKang Shao and Tao Shi},原文链接: https://arxiv.org/abs/2511.15433摘要多通道目标检测由于其较强的鲁棒性,在学术界和工业界都引起了广泛的关注。虽然许多研究都集中在改进通道融合策略上,但大多数忽略了融合退化,并且没有一个对其潜在原因提供理论分析。为了填补这一空白,本文对多模式检测中的融合退化问题进行了系统的理论研究,发现了两个关键的优化缺陷:(1)在多模式结构下,单峰分支主干的梯度被严重抑制,导致单峰分支的欠优化;(2)通道质量的差异导

2025-12-01 20:09:17 724

原创 《Rethinking Multi-modal Object Detection from the Perspective ofMono-Modality Feature Learning》论文分享

原文链接:https://arxiv.org/abs/2503.11780author={Tianyi Zhao and Boyang Liu and Yanglei Gao and Yiming Sun and Maoxun Yuan and Xingxing Wei},摘要多模式目标检测(MMOD)由于对各种复杂环境具有较强的适应性,在各种应用中得到了广泛的应用。大量的研究致力于RGB-IR目标检测,主要集中在如何整合RGB-IR模式的互补特征。然而,它们忽略了多模式联合学习中单峰学习不足的问题,即特征

2025-11-20 08:49:31 668

原创 《SAFETY MIRAGE: HOW SPURIOUS CORRELATIONS UNDERMINE VLM SAFETY FINE-TUNING ...》论文分享(侵删)

原文链接:https://arxiv.org/abs/2503.11832摘要最近的视觉语言模型(VLM)在使用多通道输入,特别是文本和图像的生成性建模方面取得了显著进展。然而,当它们暴露在不安全的查询中时,很容易产生有害内容,这引发了严重的安全问题。虽然当前的比对策略主要依赖于对经过精选的数据集进行监督的安全微调,但我们确定了一个基本限制,我们称之为“安全海市蜃楼”,其中监督的微调无意中强化了表面文本模式和安全反应之间的虚假关联,而不是促进深层的、内在的伤害缓解。我们表明,这些虚假的相关性使得微调的VLM

2025-11-11 17:12:28 439

原创 《PRISM: ROBUST VLM ALIGNMENT WITH PRINCI-PLED REASONING FOR INTEGRATED SAFETY IN MUL-TIMODALITY》论文分享

原文链接:https://arxiv.org/abs/2508.18649摘要保护视觉语言模型(VLM)是一个关键的挑战,因为现有的方法往往存在过度防御的问题,这损害了实用性,或者依赖于浅层对齐,无法检测到需要深入推理的复杂威胁。为此,我们引入了PRISM(多通道集成安全原则推理),这是一个类似于Syst2的框架,通过嵌入结构化的、安全感知的推理过程来协调VLM。我们的框架由两个关键组件组成:PRISM-COT,一个教授安全意识思想链推理的数据集,以及PRISM-DPO,通过蒙特卡罗树搜索(MCTS)生成,

2025-11-05 10:56:24 442

原创 《TEACH TO REASON SAFELY: POLICY-GUIDED SAFETYTUNING FOR MLRMS》论文分享(侵删)

原文链接:https://openreview.net/forum?id=cgy4i74Dq7摘要多通道大推理模型(MLRM)在复杂的多通道任务中表现出了卓越的性能。然而,我们的发现揭示了一个关键的权衡:基于推理的模型更容易产生有害内容,导致安全性能下降。本文对这种安全推理的权衡进行了大规模的分析,确定了安全退化的两个主要机制:(I)视觉注意漂移,它减少了模型对视觉基础的依赖,从而加剧了跨模式交互中被忽视的风险;(Ii)不安全推理模式,包括有缺陷的推理启动和思维链安全衰减,损害了模型的安全意识。为了缓解这些

2025-11-03 11:03:30 448

原创 《SimAC: A Simple Anti-Customization Method againstText-to-Image Synthesis of Diffusion Models》论文(侵删)

https://doi.org/10.1109/cvpr52733.2024.01145author={Feifei Wang and Zhentao Tan and Tianyi Wei and Yue Wu and Qidong Huang}摘要尽管基于扩散的定制方法在视觉内容创作上取得了成功,但从隐私和政治的角度来看,人们对这种技术的关注越来越多。为了解决这个问题,最近几个月提出了几种反定制方法,主要是基于对抗性攻击。遗憾的是,这些方法大多采用简单的设计,例如端到端优化,关注的是相反地最大化原始训练损

2025-10-30 16:41:54 834

原创 《Towards Robust Defense against Customization via Protective PerturbationResistant to Diffusion》论文分享

author={Wenkui Yang and Jie Cao and Junxian Duan and Ran He}原文链接:https://arxiv.org/abs/2509.13922摘要像稳定扩散这样的扩散模型由于其强大的定制能力而在视觉合成任务中变得突出,但同时也带来了重大的安全风险,包括深度假冒和版权侵权。作为回应,出现了一类被称为保护性扰动的方法,它通过注入难以察觉的对抗性噪声来减轻图像的误用。然而,净化可以消除保护性干扰,从而使图像再次暴露在恶意伪造的风险之下。在这项工作中,我们将反净化

2025-10-24 17:05:58 633

原创 《DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation》论文分享(侵删)

原文链接:https://doi.org/10.1109/cvpr52729.2023.02155author={Nataniel Ruiz and Yuanzhen Li and Varun Jampani and Yael Pritch and Michael Rubinstein and Kfir Aberman}摘要大型文本到图像模型实现了人工智能进化的显著飞跃,使给定文本提示的图像能够高质量和多样化地合成。然而,这些模型缺乏模仿给定参考集合中的受试者的外观,并在不同的上下文中合成这些受试者的新颖再

2025-10-17 11:29:13 646

原创 《Harnessing Global-Local Collaborative Adversarial Perturbation for Anti-Customization》论文分享(侵删)

原文链接:Harnessing Global-Local Collaborative Adversarial Perturbation for Anti-Customization | IEEE Conference Publication | IEEE Xploreauthor={Long Xu and Jiakai Wang and Haojie Hao and Haotong Qin and Jiejie Zhao and Xianglong Liu}摘要 虽然潜在扩散模型(LDM)在个

2025-10-09 17:20:41 703

原创 《IAP: Invisible Adversarial Patch Attack through PerceptibilityAwareLocalization and Perturbation》侵删

原文链接:[2507.06856] IAP: Invisible Adversarial Patch Attack through Perceptibility-Aware Localization and Perturbation Optimization摘要 尽管只修改了一个小的局部输入区域,但对抗性补丁可以极大地改变计算机视觉模型的预测。然而,现有的方法要么在有针对性的攻击场景下无法令人满意地执行,要么无法产生上下文一致的对抗补丁,导致它们很容易被人类检查员注意到,并且对自动补丁防御的隐

2025-07-24 18:20:46 974

原创 《Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via LatentDiffusion Model》论文分析(侵删)

原文链接:Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent Diffusion Model| Proceedings of the AAAI Conference on Artificial Intelligenceauthor={Decheng Liu and Xijun Wang and Chunlei Peng and Nannan Wang and Ruimin Hu and Xinbo Gao}摘要

2025-07-18 15:43:53 754

原创 《EAP: An effective black-box impersonation adversarial patch attack ...》论文分享(侵删)

这些结果表明,EAP可以有效地执行黑盒模仿攻击的各种人脸识别骨干具有不同的架构和复杂性,包括基于transformer的模型,有效的模型,和残留模型。物理攻击比数字攻击更具挑战性,因为它们需要考虑在不同场景下影响受扰对象外观的各种因素,如光照条件、视角、距离等,有些物理攻击方式使用眼镜(Sharif [1,2])、帽子(Komkov和Petiushko [4])、面具(Zolfi等人[16],Yin等人[17])、贴纸(Wei等人[18])或光投影(Nguyen等人[3])作为对抗性扰动的载体。

2025-06-04 15:39:41 627

原创 《Deep keypoints adversarial attack on face recognition systems》论文分享(侵删)

原文链接:Redirectingauthor={Emna Bensaid and Mohamed Neji and Marwa Jabberi and Adel M. Alimi}摘要基于深度学习的人脸识别系统最近在解决复杂问题方面取得了突出的成功。但事实证明,它们非常容易受到攻击。因此,必须研究此类系统的脆弱性。欺骗人脸识别系统的有效攻击策略会产生对抗性的例子。作为这种攻击的结果,系统可能错误地拒绝真实的对象。当前用于创建对抗性面部图像的方法具有较差的感知质量并且花费太长的时间来产生。提出了一种新的对抗攻

2025-05-23 11:22:45 1066

原创 《Saliency Attack: Towards Imperceptible Black-box Adversarial Attack》论文分享(侵删)

原文链接:https://doi.org/10.1145/3582563author={Zeyu Dai and Shengcai Liu and Qing Li and Ke Tang} 摘要 深度神经网络很容易受到对抗样本的攻击,即使是在攻击者只能访问模型输出的黑箱环境中。最近的研究已经设计了一种有效的黑盒攻击方法,具有很高的查询效率。然而,这种性能通常伴随着攻击不可察觉性的折衷,阻碍了这些方法的实际使用。在本文中,我们提出将扰动限制在一个小的显著区域内,以产生难以察觉的对抗性示例。该方法

2025-05-21 15:45:43 617

原创 《Adversarial Sticker: A Stealthy Attack Method in the Physical World》论文分享(侵删)

原文链接:Adversarial Sticker: A Stealthy Attack Method in the Physical World | IEEE Journals & Magazine | IEEE Xploreauthor={Xingxing Wei and Ying Guo and Jie Yu}摘要 为了评估深度学习在物理世界中的脆弱性,最近的工作引入了对抗补丁,并将它们应用于不同的任务。在本文中,我们提出了另一种对抗补丁:有意义的对抗贴纸,一个物理上可行的和隐形的攻击方法

2025-05-15 21:41:47 1196

原创 《Feature-aware transferable adversarial attacks against image classification》论文分享(侵删)

原文链接:Feature-aware transferable adversarial attacks against image classification - ScienceDirectauthor={Shuyan Cheng and Peng Li and Keji Han and He Xu}摘要与白盒对抗攻击相比,黑盒对抗攻击具有更强的实用性,因此受到了广泛的关注。然而,现有的大多数黑盒攻击都是在输出层进行优化,生成的对抗性样本难以从代理模型转移到目标模型。现有的对抗性攻击对中间层特征进行不加区

2025-05-14 11:57:26 781

原创 《Feature-Aware Transferable Adversarial Attacks on Visual Object Tracking》论文分享(侵删)

原文链接:Feature-Aware Transferable Adversarial Attacks on Visual Object Tracking | IEEE Journals & Magazine | IEEE Xploreauthor={Mengdi Dong and Ke Xu and Xinghao Jiang and Zeyu Zhao and Tanfeng Sun}摘要 视觉目标跟踪容易受到攻击,这给许多应用系统带来了严重的安全问题。以往的攻击方法主要针

2025-05-12 17:13:51 1073

原创 《Decoupled Multi-task Learning with Cyclical Self-Regulation for Face Parsing》论文分享(侵删)

author={Qingping Zheng and Jiankang Deng and Zheng Zhu and Ying Li and Stefanos Zafeiriou}原文链接:Decoupled Multi-task Learning with Cyclical Self-Regulation for Face Parsing | IEEE Conference Publication | IEEE Xplore摘要 本文探讨了现有人脸分析方法中常见的空间不一致和边界混淆等错误背

2025-04-09 21:56:23 709

原创 DiGradPatch: Black-Box Patch Attacks via Diffusion-Based Double Gradient 论文分享(侵删)

摘要深度神经网络在图像分析任务中证明了黑盒对抗性补丁攻击的漏洞,这引发了人们对它们在安全关键应用中的稳健性的担忧。当前方法通常依赖于随机搜索策略来确定补丁位置,并在补丁区域中应用不受限制的像素扰动,从而导致高查询成本和严重的视觉失真,从而降低了不可感知性。为了解决这些限制,我们提出了通过基于扩散的双梯度和敏感分布指导 (DiGradPatch) 进行黑盒补丁攻击,这是一种旨在以最低查询成本生成高度难以察觉的对抗样本的新方法。

2025-03-14 18:11:04 719

原创 《SegFace: Face Segmentation of Long-Tail Classes》论文分享(侵删)

author={Kartik Narayan and Vibashan VS and Vishal M. Patel}原文链接:[2412.08647] SegFace: Face Segmentation of Long-Tail Classes摘要 人脸解析是指将人脸语义分割为眼睛、鼻子、头发等关键面部区域。它是各种高级应用程序的先决条件,包括人脸编辑、人脸交换和面部化妆,这些应用程序通常需要对眼镜、帽子、耳环和项链等类别进行分割遮罩。这些不常出现的类称为长尾类,而长尾类被称为头类的频繁出

2025-02-28 22:17:42 1130

原创 《MULTI-CLASS SEMANTIC SEGMENTATION OF FACES》论文分享(侵删)

我们考虑来自集合DHSV = {16×16,32×32,64×64}和Nbins = {16,32,64}的所有9个值的组合。心理学文献似乎证实了他们的主张,因为从人脸区域提取的重要面部特征(前额,头发)被证明是人类视觉系统的信息,以便识别面部身份[3,4]。准确性被用作性能指标。我们探索了不同的参数化补丁尺寸(DHSV= 16×16,32×32和64×64)和直方图箱的数量(Nbins = 16,32和64)。由于这些原因,在我们的工作中,我们将标签集扩展到六个类别:皮肤,头发,眼睛,鼻子,嘴巴和背景。

2025-02-25 16:50:58 669

原创 《Simultaneously Optimizing Perturbations and Positions for Black-box Adversarial Patch Attacks》论文分享

原文链接:https://doi.org/10.1109/tpami.2022.3231886author={Xingxing Wei and Ying Guo and Jie Yu and Bo Zhang},一、摘要对抗补丁是一种重要的对抗攻击形式,它给深度神经网络的鲁棒性带来极大威胁.现有的方法要么通过在固定粘贴位置的同时优化其扰动值,要么通过在固定补丁内容的同时操纵位置来生成对抗补丁。这表明,位置和扰动对对抗性攻击都是重要的。为此,本文提出了一种新的方法来同时优化对抗补丁

2025-01-07 21:55:14 1133

原创 《Part-based Face Recognition with Vision Transformers》论文翻译

虽然最近关于FR的大部分工作集中于(B),设计更有效的损失函数[8,13,33,37,48,58,61],该工作主要集中在(a),即,设计用于面部特征提取的新架构。其中N是一个批次中的样本数量,z = zL cls|| zL cls||,zi是第i个样本,yi是相应的地面实况,W = W*/|| W *||是最后一个线性层的权重矩阵,Wj是权重矩阵的归一化的第j列(类),cos(θ yi,i)= WT yi zi,m是余量,B固定为||zL cls||.我们发现,fViT,类似于ViT,容易过拟合。

2024-12-25 20:32:21 862

原创 《DSL-FIQA》论文翻译

常规图像质量评估传统的常规图像质量评估(GIQA)[7,14]方法,如BRISQUE [39]、NIQE [40]和DIIVINE [41],是建立在传统统计模型的基础上的,这些方法在大小受限的数据集上工作良好,但在复杂的真实世界图像上却面临着局限性。几十年来,对一般图像的图像质量评估(IQA)[14,28,35,66,71]或一般IQA(GIQA)的研究已经证明了各种通用IQA数据集的可靠性能[15,19,33,47,57,67]。总之,DSL摆脱了整个图像上的补丁退化的均匀性假设,以进行退化学习。

2024-12-02 22:17:45 1135

原创 《Attention Deficit is Ordered! Fooling Deformable Vision Transformers withCollaborative Adversarial》

首次针对可变形Transformer架构开发攻击方法:这些方法能够突破此前基于注意力的攻击所无法攻克的防御机制,专门针对这些模型的稀疏注意力结构。提出四种基于指针的攻击策略:每种策略针对不同的攻击目标,包括全新的协作补丁攻击,通过重定向注意力至对抗性补丁,最大化对模型损失的影响。在不同数据集上的基准测试:我们在MS COCO [15] 和多摄像头目标检测数据集 Wildtrack [7] 上测试了这些攻击方法,并与现有攻击进行了对比。

2024-12-02 17:33:19 970

原创 《Pyramid Vision Transformer: A Versatile Backbone for Dense Predictionwithout Convolutions》论文翻译

原文链接:Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions | IEEE Conference Publication | IEEE Xploreauthor={Wenhai Wang and Enze Xie and Xiang Li and Deng-Ping Fan and Kaitao Song and Ding Liang and Tong Lu and Ping

2024-11-17 18:43:21 953

原创 《DPT: Deformable Patch-based Transformer for Visual Recognition》论文翻译

原文链接:DPT: Deformable Patch-based Transformer for Visual Recognition | Proceedings of the 29th ACM International Conference on Multimediaauthor={Zhiyang Chen and Yousong Zhu and Chaoyang Zhao and Guosheng Hu and Wei Zeng and Jinqiao Wang and Ming Tang},一

2024-11-14 21:56:02 957

原创 DAT and Deformable DETR

Linear Deformable Attention是一种改进的注意力机制,通过稀疏化的动态注意力区域显著降低计算成本,特别适合处理视觉任务中大尺度的高分辨率图像。其灵活的区域选择使得模型能有效聚焦重要特征,从而在效率和效果上优于传统的全局注意力机制。以下部分摘录自《Vision Transformer with Deformable Attention》

2024-11-08 10:10:58 869

原创 《Vision Transformer with Deformable Attention》论文翻译

原文链接:https://doi.org/10.1109/cvpr52688.2022.00475author={Zhuofan Xia and Xuran Pan and Shiji Song and Li Erran Li and Gao Huang}一、介绍Transformer最初是为了处理自然语言处理任务而提出的。最近,它在计算机视觉领域展示了巨大的潜力。先锋工作Vision Transformer(ViT)通过堆叠多个Transformer块处理非重叠的图像块(即视觉

2024-11-06 21:56:19 1255

原创 《TnT Attacks! Universal Naturalistic AdversarialPatches Against Deep Neural Network System》论文分享(侵删)

首先,我们形式化TnT的符号表示,其次,我们提出实现这种TnT的方法。在这里,A是补丁戳过程,ytTarget是攻击者指定的目标类,ysource是地面实况标签,xmax(x max,ytTarget,ysource)是来自分类器f的预测分数与目标以及源标签之间的组合交叉熵损失,并且xmax是来自目标分类器f的反馈。然而,在所有看起来自然的小图像块的无限空间中搜索是不可行的,因此我们通过从GAN的最新发展中获得灵感,将我们的搜索限制在生成对抗网络(GAN)的流形上,GAN显示出学习生成逼真图像的巨大能力。

2024-10-31 18:35:55 847

原创 《Adversarial Patch Attacks on Deep-Learning-Based FaceRecognition Systems Using Generative Adversar》

总而言之,其他论文使用基于代理的在物理世界中,传统的基于代理的方法对模型结构和参数是强制性的,这意味着它只适用于白盒攻击。所提出的架构并入了额外的损耗,指定为L身份,其目的是鼓励生成器(G)以产生专门用于使面部识别系统将输入面部误判为另一个人的面部的噪声。因此,所提出的方法更容易应用于物理世界中的攻击。然而,当生成敌对面部((x + G(x),其中x = ft)以执行有针对性的攻击时,目的是攻击特定目标,因此将用敌对面部图像f+ x + G(x)修补的输入图像与攻击目标ft的面部图像进行比较。

2024-10-24 10:34:32 745

原创 《Transferable Black-Box Attack Against FaceRecognition With Spatial Mutable Adversarial Patch》论文分享

原文链接:dblp: Transferable Black-Box Attack Against Face Recognition With Spatial Mutable Adversarial Patch.author={Haotian Ma and Ke Xu and Xinghao Jiang and Zeyu Zhao and Tanfeng Sun}一、介绍本文提出了一种空间可变对抗补丁(SMAP)的方法来产生一个动态可变补丁注入到脸上。在所提出的SMAP中,纹理,位

2024-05-27 00:52:29 1030

原创 《A data independent approach to generate adversarial patches》论文分享(侵删)

实验结果表明,DiAP生成的对抗补丁具有较强的攻击能力.特别是,通过从非目标补丁中提取关于训练数据的模糊信息,DiAP在黑盒攻击场景中的性能优于最先进的攻击方法。显示了为非目标攻击生成的一些补丁。当斑块覆盖10%的测试图像时,97.1%的与斑块(a)叠加的对抗性示例被分类为气泡,60.9%的被斑块(b)扰动的图像被识别为作为盐瓶或瓢虫,55.8%的图像被斑片(c)干扰后被识别为气泡或风车。对抗补丁是图像独立的,对于旋转和缩放是鲁棒的,可以放置在深度神经网络的视野内的任何地方,并使深度神经网络输出目标类。

2024-05-11 23:54:01 1073 2

原创 《Suppress with a Patch: Revisiting UniversalAdversarial Patch Attacks against Object Detection》论文分享

特别是,我们评估的补丁大小和初始化方法的影响。为了实现位置不可知的补丁,我们评估了三种可能的补丁放置策略:将补丁放置在一个固定的位置,动态窗口的方法,和随机补丁放置。我们对不同的补丁生成参数进行了深入的分析,包括初始化,补丁大小,特别是在训练过程中在图像中定位补丁。实验表明,在训练过程中,在一个大小不断增加的窗口内插入一个补丁,与固定位置相比,可以显著增加攻击强度。我们研究了在训练期间定位补丁的三种方法:(1)将补丁放置在图像中心的固定位置,(2)动态窗口方法,以及(3)在整个输入图像上随机放置补丁。

2024-03-26 21:36:39 1060 1

原创 《DEFENDING AGAINST PHYSICALLY REALIZABLE AT-TACKS ON IMAGE CLASSIFICATION》论文分享(侵删)

具体来说,在我们的Pytorch实现中,我们将图像从RGB转换为BGR通道阶数,并减去平均值[129.1863,104.7624,93.5940],以便在卷积层上使用来自VGG-Face的预训练权重。尽管引入了可调步幅参数,但搜索罗阿的最佳位置仍然需要大量的损失函数评估,这在一定程度上是昂贵的(因为每个这样的评估意味着通过深度神经网络的完全前向传递),并且这些成本迅速增加。然后,我们通过实验证明,我们提出的方法对深度神经网络的物理攻击比对抗性训练和利用基于LP的攻击模型的随机平滑方法更强大。

2024-03-24 21:48:04 750 1

原创 《Adaptive Adversarial Patch Attack on Face Recognition Models》论文分享(侵删)

我们反向传播Ladv,以获得梯度Ladv,然后对每个通道的结果进行平方和求和,以获得显著性图,显著图中每个像素的值反映了其对识别的重要性,这意味着可识别区域可以被视为最容易受到攻击的区域。在本文中,我们提出了一个新的统一的自适应对抗补丁攻击框架,有针对性的攻击人脸识别模型,AAP。不同于现有的补丁攻击作品,只集中在补丁生成的一个方面,我们综合考虑多个因素,包括补丁的位置,补丁的形状,补丁的数量。我们的方法自适应地选择补丁的位置和数量的显着性图和K均值聚类的基础上,同时变形补丁的形状和优化扰动。

2024-03-20 17:12:30 2007 1

原创 《RPATTACK: REFINED PATCH ATTACK ON GENERAL OBJECT DETECTORS》论文分享(侵删)

去除攻击过程中的无关扰动,保持攻击过程,可以充分修改剩余的关键像素。具体来说,我们自适应地找到补丁的基础上的梯度攻击,并逐步删除每个补丁中的无关紧要的像素,直到攻击过程变得稳定。其中x = k是第k次迭代中的对抗样本,Ji是我们用来攻击第i个检测器的损失函数,α是更新的步长,权重wi是平衡梯度的参数,Di(x)是第i个检测器检测到的x中的实例数。其中xj是第j个图像,Di(x)表示由第i个检测器检测到的图像x的边界框编号,Pj是我们添加到第j个图像的扰动,并且Area(Pj)是第j个图像中的扰动面积。

2024-03-04 23:12:15 1100 1

原创 An Asterisk-shaped Patch Attack for ObjectDetection论文分享(侵删)

在接下来的工作中,一方面,我们会进一步改进我们的方法,选择更好的局部对抗补丁添加到图像中,特别是针对两阶段对象检测器的攻击,因为在实验中我们发现YOLOv 5模型更容易攻击,而针对Faster R-CNN模型的攻击则更困难;我们根据攻击的模型设计不同的损失函数,并选择图像中使我们的攻击最好的关键位置。评估标准:在实验中,我们从mAP、攻击成功率(ASR)、攻击所需时间(Time)等角度对攻击算法进行了评估,而Changed Pixels是指添加到图像中的对抗性扰动可以改变的图像像素的最大数量。

2024-02-28 18:34:00 841 2

原创 Superpixel Segmentation with Fully Convolutional Networks论文分享(侵删)

在未来,我们计划将所提出的基于超像素的下采样/上采样方案应用于其他密集预测任务,例如对象分割和光流估计,并探索在这些应用中使用超像素的不同方法。我们替换了用于下采样的传统操作(例如,跨距-2卷积)和上采样(例如,双线性上采样),并采用基于超像素的下采样/上采样方案,有效地保留对象边界和细节。其中Y ∈ Rh×w×C是一个输出量,使得h = H/ S,w = W /S,κi,j是一个仿射网络的输出,使得Σ(K/2)( a,B=−K/2+1) κi,j(a,b)= 1,并且是元素乘积。我们使用SLIC损失。

2024-02-20 11:31:51 894

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除