自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(181)
  • 收藏
  • 关注

原创 CVPR2025 | 对抗样本&智能安全方向论文汇总 | 持续更新中~

文章汇总CVPR2025中对抗样本&智能安全方向的相关论文和GitHub链接,同时每篇文章附有摘要。

2025-03-20 16:45:56 1927

原创 Pytorch | 利用FGSM针对CIFAR10上的ResNet分类器进行对抗攻击

使用Pytorch实现快速梯度符号攻击Fast Gradient Sign Method, FGSM)对CIFAR10上的ResNet分类器进行攻击.

2024-12-20 22:19:40 2394

原创 Pytorch | 从零构建ResNet对CIFAR10进行分类

用Pytorch从零构建ResNet对CIFAR10进行分类

2024-12-18 13:06:02 2697

原创 【学习笔记】MATLAB与数学建模——蒙特卡罗模拟&仿真

蒙特卡洛模拟&仿真蒲丰投针三门问题排队问题有约束的非线性规划问题0-1规划问题导弹追踪问题仿真旅行商问题加油站存储策略

2022-04-29 18:15:51 25017 2

原创 CVPR2025 | GWAD | Mind the Gap:通过查询更新分析检测正在进行中的黑盒对抗攻击

本文 “Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis” 提出一种新的检测黑盒对抗攻击的框架 GWAD,通过分析查询更新模式来检测攻击,在多种攻击场景下展现出高检测性能和泛化能力,对推动机器学习安全防御发展有重要意义。

2025-03-20 20:42:30 1093

原创 CVPR2025 | TAPT:用于视觉语言模型鲁棒推理的测试时对抗提示调整

本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。

2025-03-19 20:10:20 1312

原创 CVPR2025 | AnyAttack:对任意图像的视觉语言模型的目标性对抗攻击

本文 “AnyAttack: Targeted Adversarial Attacks on Vision-Language Models Toward Any Images” 提出了针对视觉语言模型(VLMs)的目标性对抗攻击框架 AnyAttack,该框架利用自监督学习在无标签监督下生成对抗图像,揭示了 VLMs 存在的安全风险,强调了开发防御机制的紧迫性。

2025-03-19 17:36:27 1082

原创 CVPR2024 | 大型多模态模型对图像对抗攻击的鲁棒性研究

本文 “On the Robustness of Large Multimodal Models Against Image Adversarial Attacks” 主要研究大型多模态模型(LMMs)对图像对抗攻击的鲁棒性。研究发现 LMMs 在无额外文本信息时对对抗攻击较脆弱,但上下文能提升其鲁棒性,还提出了查询分解的方法提高图像分类的鲁棒性。

2025-03-17 18:03:08 876

原创 CVPR2024 | HFAT | 聚焦“隐藏者”:探索隐藏威胁以增强对抗训练

本文 “Focus on Hiders: Exploring Hidden Threats for Enhancing Adversarial Training”指出传统对抗训练专注于对抗样本存在局限性,提出 “隐藏者(hiders)” 概念,即先前训练中能正确分类或防御,但后续训练中变得脆弱的样本。同时提出聚焦隐藏者的对抗训练算法(HFAT),该算法通过迭代进化优化策略和辅助模型,有效提升模型的鲁棒性和准确性。

2025-03-17 11:08:45 883

原创 CVPR2024 | SWARM | 并非所有提示都安全:针对预训练视觉Transformer的可开关后门攻击

本文 “Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transfomers” 提出了一种针对预训练视觉 Transformer 的可切换后门攻击方法 SWARM,揭示了预训练并提示范式下的安全威胁,通过实验验证了攻击的有效性和隐蔽性,为后续防御研究提供了方向。

2025-03-16 17:34:21 968

原创 CVPR2024 | TT3D | 物理世界中可迁移目标性 3D 对抗攻击

本文 “Towards Transferable Targeted 3D Adversarial Attack in the Physical World” 提出了一种全新的 3D 攻击框架 TT3D,可将多视图图像快速重建为可迁移目标性的 3D 对抗样本,有效填补了 3D 可迁移目标性攻击领域的空白,为研究深度学习系统的安全性提供了新的视角和方法。

2025-03-16 11:10:19 919

原创 AAAI2025 | 利用增强可解释性架构解释对抗攻击与防御

本文 “Interpreting Adversarial Attacks and Defences using Architectures with Enhanced Interpretability” 利用深度线性门控网络(DLGN)架构,对比分析了标准训练(STD - TR)和投影梯度下降对抗训练(PGD - AT)的模型,从多个角度揭示了对抗训练模型的特性,为理解对抗攻击与防御提供了新视角。

2025-03-14 09:15:00 1614

原创 AAAI2025 | 基于事件的行人检测器的对抗攻击:一种物理方法

本文 “Adversarial Attacks on Event-Based Pedestrian Detectors: A Physical Approach” 提出一种端到端的对抗攻击框架,研究基于事件的行人检测器在物理对抗攻击下的安全性,通过数字域优化纹理并在现实场景中验证,证明了此类模型存在安全漏洞。

2025-03-14 09:00:00 887

原创 CVPR2024 | NAPGuard | NAPGuard:用于自然对抗图块检测

本文 “NAPGuard: Towards Detecting Naturalistic Adversarial Patches” 提出 NAPGuard 框架,通过训练时对齐攻击特征、推理时抑制自然特征,有效检测自然对抗图块,还构建了 GAP 数据集。实验显示该方法在检测 NAPs 上大幅超越现有方法,为对抗图块检测研究提供了新方向。

2025-03-13 09:51:12 1007

原创 AAAI2025 | MuMoDIG | 通过改进积分路径提高基于积分梯度的对抗样本迁移性

本文 “Improving Integrated Gradient - based Transferable Adversarial Examples by Refining the Integration Path” 提出 MuMoDIG 攻击方法,从多路径、单调性和多样性三方面优化积分路径,生成高迁移性对抗样本,在多种模型和防御机制下表现优异。

2025-03-13 09:00:00 1786

原创 TIFS2025 | SIAGT | 针对任意尺度超分辨率的尺度不变对抗攻击

本文 “Scale-Invariant Adversarial Attack against Arbitrary-scale Super-resolution” 提出了一种针对任意尺度超分辨率(SR)的尺度不变对抗攻击方法 SIAGT,旨在评估基于连续表示的任意尺度 SR 方法的鲁棒性,同时探讨了该攻击方法在版权保护等实际场景中的应用潜力。

2025-03-12 09:15:00 1146

原创 TGARS2024 | LGP | 面向目标检测的通用且可控攻击

本文 “Toward Generic and Controllable Attacks Against Object Detection” 提出一种针对主流目标检测器的通用可控攻击框架 LGP,通过实验验证其在攻击强度、通用性和可控性方面的优势,为研究目标检测的对抗攻击提供了新方向。

2025-03-12 09:00:00 981

原创 CVPR2024 | AAS | 理解并提升视觉Transformer的对抗鲁棒性

本文 “Towards Understanding and Improving Adversarial Robustness of Vision Transformers” 聚焦视觉 Transformer(VITs)对抗鲁棒性问题,分析现有攻击在 VITs 上效果不佳的原因,提出自适应注意力缩放(AAS)攻击和 AAS 对抗训练(AAS-AT)方法,有效提升了 VITs 的对抗攻击能力和训练鲁棒性。

2025-03-11 18:31:08 1138

原创 CVPR2024 | EGS-TSSA | 通过精确组稀疏训练实现可迁移结构稀疏对抗攻击

本文 “Transferable Structural Sparse Adversarial Attack Via Exact Group Sparsity Training” 提出了一种通过精确组稀疏训练生成可迁移结构稀疏对抗扰动的方法,在提升对抗攻击迁移性的同时,使扰动更不易察觉,在多种攻击任务中展现出优异性能。

2025-03-11 10:36:25 881

原创 TIFS2023 | TCA-GAN | 针对深度伪造换脸的受限黑盒对抗攻击

本文 “Restricted Black-Box Adversarial Attack Against DeepFake Face Swapping” 提出了一种实用的针对 DeepFake 换脸的受限黑盒对抗攻击方法,通过构建替代模型和 TCA - GAN 生成对抗扰动,并利用后正则化模块增强对抗样本的可迁移性,有效破坏 DeepFake 换脸效果,提升检测性能,还能推广到其他面部操作模型。

2025-03-10 09:15:00 1722

原创 CVPR2025 | PSP-UAP | 具有伪语义先验的无数据通用对抗扰动

本文 “Data-free Universal Adversarial Perturbation with Pseudo-semantic Prior” 提出了 PSP-UAP 方法,利用 UAP 固有语义信息生成伪语义先验,通过样本重加权和输入变换,提升了无数据通用对抗扰动在黑盒攻击中的性能,在多种 CNN 模型上超越了现有方法。

2025-03-10 09:00:00 1904

原创 CVPR2017 | UAP | 通用对抗扰动

本文 “Universal adversarial perturbations” 证明了存在通用对抗扰动向量,能使自然图像被深度神经网络高概率误分类,提出计算该扰动的算法,分析其特性并解释深度神经网络易受攻击的原因。

2025-03-09 09:15:00 664

原创 IJCAI2018 | AdvGAN | 使用对抗网络生成对抗样本

本文 “Generating Adversarial Examples with Adversarial Networks” 提出 AdvGAN,利用生成对抗网络生成对抗样本,在半白盒和黑盒攻击场景下均有出色表现,生成的对抗样本攻击成功率高、感知质量好,为改进对抗训练防御方法提供了新方向。

2025-03-09 09:00:00 684

原创 INS2023 | SFVA | 通过污染显著特征方差来构建可迁移的对抗样本

本文 “Crafting transferable adversarial examples via contaminating the salient feature variance” 提出了一种显著特征方差攻击(SFVA)方法,旨在解决当前特征级攻击存在的问题,通过大量实验验证了该方法的优越性,揭示了现实世界中模型面临的安全威胁。

2025-03-08 09:15:00 950

原创 Arxiv2016 | 机器学习中的可迁移性:从现象到使用对抗样本的黑盒攻击

本文 “Transferability in Machine Learning: from Phenomena to Black - Box Attacks using Adversarial Samples” 主要研究机器学习中对抗样本的可迁移性,提出了针对多种机器学习模型的黑盒攻击方法,并通过实验验证了其有效性,强调了现有机器学习系统在面对此类攻击时的脆弱性,为后续研究机器学习的安全性提供了重要参考。

2025-03-08 09:00:00 706

原创 INS2023 | AI-FGSM | 利用时间邻域中的自适应点选择提升对抗攻击的可转移性

本文 “Boosting the transferability of adversarial attacks with adaptive points selecting in temporal neighborhood” 提出 AI - FGSM 攻击方法,利用时间邻域自适应选择点,提升对抗样本在黑盒环境下的转移性,实验证明该方法在多种场景下攻击成功率高且生成的对抗样本质量好。

2025-03-07 09:15:00 1468 3

原创 CVPR2016 | DeepFool | DeepFool:一种简单而准确的欺骗深度神经网络的方法

本文 “DeepFool: a simple and accurate method to fool deep neural networks” 提出 DeepFool 算法,用于高效计算能欺骗深度神经网络的扰动,量化分类器的鲁棒性。实验表明,该算法在计算对抗扰动和提升分类器鲁棒性方面优于现有方法。

2025-03-07 09:00:00 802

原创 EuroS&P2016 | JSMA | 深度学习在对抗环境下的局限性

本文 “The Limitations of Deep Learning in Adversarial Settings” 主要研究深度学习在对抗环境下的局限性,提出了一类新的对抗样本生成算法,分析了样本的脆弱性和人类对对抗样本的感知,并探讨了防御对抗样本的方法。

2025-03-06 09:15:00 918

原创 Arxiv2024 | 提升对抗样本转移性的实用技巧集

本文 “Bag of Tricks to Boost Adversarial Transferability” 提出一系列技巧提升对抗样本转移性,通过实验验证了这些技巧的有效性,为增强对抗攻击转移性提供了实用方法和理论启发。

2025-03-06 09:00:00 847

原创 NDSS2024 | TAA-Bench | 可迁移对抗攻击的基准

本文 “Benchmarking Transferable Adversarial Attacks” 全面回顾了对抗攻击迁移性相关方法,提出基准框架 TAA - Bench,整合多种攻击方法,为跨模型架构的对比分析提供平台,推动该领域研究发展。

2025-03-05 09:15:00 772

原创 2013 | GDA | 测试时针对机器学习的规避攻击

本文 “Evasion attacks against machine learning at test time” 提出一种基于梯度的方法评估分类算法在规避攻击下的安全性,通过模拟不同风险级别的攻击场景,发现常用分类算法易受攻击,并给出了改进安全性的建议。

2025-03-05 09:00:00 1159

原创 CVPR2024 | SASD-WS | 利用模型自增强改进可迁移的目标性对抗攻击

本文 “Improving Transferable Targeted Adversarial Attacks with Model Self-Enhancement” 提出一种结合锐度感知自蒸馏(SASD)和权重缩放(WS)的模型自增强方法,以提升深度神经网络在目标对抗攻击中的转移性,增强攻击成功率,同时通过实验验证了方法的有效性和优越性。

2025-03-04 09:15:00 1116

原创 NIPS2024 | TPA | 可迁移性边界理论:探究对抗样本可迁移性与平坦性之间的关系

本文 “Transferability Bound Theory: Exploring Relationship between Adversarial Transferability and Flatness” 提出对抗样本可迁移性的理论边界,证明平坦性与可迁移性无必然联系,并基于理论分析提出 TPA 攻击方法,通过实验验证其在多种场景下的有效性。

2025-03-04 09:00:00 915

原创 ICASSP2024 | FFT | 通过特征空间微调增强目标可转移性

本文 “Enhancing Targeted Transferability via Feature Space Fine-Tuning” 提出通过在特征空间中微调对抗样本(AE)来提升其定向转移性,有效缓解现有简单迭代攻击过拟合问题,经实验验证该方法在多种场景下能显著提高攻击转移性。

2025-03-03 09:15:00 1075

原创 CVPR2024 | SMER | 集成多样性促进对抗转移性

本文 “Ensemble Diversity Facilitates Adversarial Transferability” 提出了一种新的随机小批量黑盒攻击方法 SMER,通过强化学习进行集成重加权,以生成具有高转移性的对抗样本,提升黑盒攻击效果。

2025-03-03 09:00:00 1703

原创 ECCV2024 | MA | 通过模型对齐提高对抗迁移性

本文 “Improving Adversarial Transferability via Model Alignment” 提出模型对齐技术,通过微调源模型最小化与见证模型的预测差异,提升对抗样本转移性。经几何分析和大量实验验证,该技术有效且与多种攻击算法兼容,为提升对抗样本转移性提供新方向。

2025-03-02 09:15:00 986

原创 ICLR2024 | CWA | 基于迁移的对抗性攻击中对模型集成的再思考

本文 “Rethinking model ensemble in transfer-based adversarial attacks” 探讨了对抗样本的迁移性问题,提出了一种新的攻击方法 CWA,通过优化模型集成的共同弱点来提高对抗样本的迁移能力。

2025-03-02 09:00:00 759

原创 AAAI2024 | VDC | 利用虚拟密集连接提高视觉Transformer的对抗迁移性

本文 “Improving the Adversarial Transferability of Vision Transformers with Virtual Dense Connection” 提出虚拟密集连接方法(VDC)提升视觉 Transformer 对抗样本跨结构迁移性,实验证明其优于现有方法。

2025-03-01 09:15:00 886

原创 AAAI2024 | AGS | AGS:经济且通用的可迁移对抗攻击替代训练

本文 “AGS: Affordable and Generalizable Substitute Training for Transferable Adversarial Attack” 提出了一种名为 AGS 的替代训练框架,用于基于迁移的对抗攻击,以解决现有基于迁移的攻击中替代模型成本高和过拟合的问题。

2025-03-01 09:00:00 844

原创 CVPR2024 | BSR | 通过块打乱和旋转提升对抗迁移性

本文 “Boosting Adversarial Transferability by Block Shuffle and Rotation” 提出一种名为块打乱和旋转(BSR)的新型基于输入变换的攻击方法,通过破坏图像内在关系扰乱注意力热图,优化对抗扰动,提升对抗样本在不同模型间的转移性,实验结果验证了该方法的有效性。

2025-02-28 09:15:00 864

基于多种机器学习算法的分类预测研究

本资源为原创论文的word版。 可用于机器学习课程的结课论文。 本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源。

2022-11-16

LendingClub2018-2020部分数据和字段释义

包括LendingClub2018-2020部分数据(sheet1),以及部分字段的释义(sheet2) 用于我的另一资源:基于多种机器学习算法的分类预测研究 该资源为机器学习结课论文,本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源

2022-11-15

编码多源数据集(预处理后的多源数据集)

文件为多源数据集的编码形式,即预处理之后的数据 用于我的另一资源:基于多种机器学习算法的分类预测研究 该资源为机器学习结课论文,本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源

2022-11-15

机器学习结课论文-基于多种机器学习算法的分类预测研究

可用于机器学习课程的结课论文。 本文在对Lending Club数据集进行初步数据分析的基础上,通过选取4组不同的特征,采用同一种算法(逻辑回归,LR)进行分类预测,最终确定3个相对较优特征为:loan_amnt,annual_inc,term。随后本文针对“多源数据集”,采用神经网络、贝叶斯分类器和决策树三种算法对数据进行分类预测,最终综合三种算法的模型结果参数,确定决策树为三者最优。最后,本文仍选取Lending Club数据集作为研究对象,经预处理后,选取数据的55个特征,并将二分类问题变为三分类问题。之后,采用单一树类模型——决策树,以及集成树类模型——随机森林和极端随机树对数据进行分类预测,对比模型结果参数,得出结论:集成算法相比较于单一算法有更好的准确度和泛化能力,但是相应模型也会消耗更多计算机资源。

2022-11-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除