- 博客(14)
- 收藏
- 关注
原创 word参考文献交叉引用设置为连续引用格式
(1)使用切换域的方式,例如变成:{REF _Ref160527949 \r \h *MERGEFORMAT },然后再修改,可参考相关文档;第二种方式相对较简单,但是在导出为pdf的时候通常会自动变回去,具体有原因可解释。**问题引入:**在word中使用交叉引用时,对于连续多个引用通常格式是:[2][3][4][5],如何变成[2-5]?(2)采用手动的方式,直接将[2][3][4][5]修改成[2-5]。
2025-03-20 16:26:43
155
原创 opencv读取图片HWC转CHW
在读取图片时,一般可采取或实现,但是二者读取得到的数据格式有些不同。对于给定的图片,当使用加载图片时,可将其直接转换为]的,并且此时格式为。当采用读取图片时,不同之处有两点:因此,在PIL和CV2读取图片间进行转换时,需要同时注意维度和RGB通道。具体地,将转换为:此外,若设计转,则首先需要对通道进行逆序,通过下面命令实现。参考资料:http://www.zzvips.com/article/205586.html......
2022-06-07 21:03:10
5570
原创 Improving the transferability of adversarial samples with adversarial transformations
Improving the transferability of adversarial samples with adversarial transformations通过对抗变换提高对抗样本的迁移性。概述:引入一个对抗变换网络,对数据增广进行模拟,并得到对对抗样本影响最大的变换,最后优化时消除这种影响,提高对抗样本的鲁棒性,提高对抗样本的可攻击迁移性。abstract:迁移攻击通过在本地模型上生成对抗样本实现对目标模型的攻击,在实际应用中更易实现和操作。然而目前基于迁移攻击的方法因为对本地代理模型
2021-08-14 10:57:50
1222
1
原创 Enhancing the Transferability of Adversarial Attacks through Variance Runing
Enhancing the Transferability of Adversarial Attacks through Variance RuningCVPR2021大类属于使用新的数据增广技术提高对抗样本的攻击迁移性,属于黑盒攻击。Abstract:白盒攻击效果已经很好了,但是黑盒(迁移)攻击效果仍不能达到满意的效果。本文引入一种新的方法——Variance Tuning,来提高基于梯度迭代攻击方法类的攻击效果,并提高其攻击迁移性。具体地,在使用梯度更新参数的时候,并不是使用当前梯度来进行动量累积
2021-08-14 10:54:44
1081
4
原创 python torch 解决OSError: [WinError 126] 找不到指定的模块。 Error loading “D:\Anaconda3\lib\site-packages\torch
python torch 解决OSError: [WinError 126] 找不到指定的模块。 Error loading “D:\Anaconda3\lib\site-packages\torch在远程桌面安装anaconda,然后安装torch,在Pytorch找到对应版本安装,然后出现:如上所示。开始各种在网上找解决方案,基本上能试的都试了,但没啥用。基本上是缺少某些支持的DLL。后来!!!!发现其实图片上有提示,如上所示,然后进入相应网址,下载安装:安装完后:然后再import
2021-04-20 23:23:48
16366
5
原创 Adversarial patch camouflage against aerial detection
Adversarial Patch Camouflage against Aerial Detection[Adversarial Patch Camouflage against Aerial Detection](Adversarial Patch Camouflage against Aerial Detection)关键字:Adversarial patch attack aerial target detection camouflage drone surveillance针对大型军事目
2021-01-17 20:50:43
835
5
原创 优化算法与梯度下降_优快云
优化算法与梯度下降1. 优化和深度学习优化与深度学习在深度学习问题中,通常会预先设定一个损失函数,有了损失函数有,就可以通过优化算法试图将其最小化。这样的损失函数通常被称为优化问题的目标函数(objective function)。优化和深度学习的关系 虽然优化为深度学习提供了最小化损失函数的方法,但本质上,优化和深度学习的目标有区别。优化算法的目标函数通常是一个基于训练数据集的损失函数,优化的目标在于降低训练误差。但是深度学习最终的目标是要降低泛化误差。这样,为了降低泛化误差,一方面使用优化算法
2021-01-10 16:24:57
190
原创 Adversarial Logit Pairing_优快云
Adversarial Logit PairingAdversarial Logit Pairingwe introduce enhanced defenses using a technique we call logit pairing, a method that encourages logits for pairs of examples to be similar.本文提出了一种logit pairing方法做防御。0. Recall0.1 Adversarial TrainingA
2020-12-29 09:32:06
975
原创 decision-based adversarial attacks_reliable attacks against black-box machine learning models
Decision-based adversarial attacks: Reliable attacks against black-box machine learning modelsDecision-based adversarial attacks: Reliable attacks against black-box machine learning models本文提出了一种boundary-based的攻击方法,本方法不需要模型的梯度信息或score信息,因此可进行白盒和黑盒攻击。本方法还
2020-12-19 22:27:29
1959
1
原创 Distillation as a defense to adaversarial perturbations against DNN
Distillation as a defense to adversarial perturbations against DNNsDistillation as a defense to adversarial perturbations against DNNs 1. IntroductionDistillation is a training procedure initially designed to train a DNN using knowledge transferred from
2020-12-19 22:22:47
422
2
原创 adversarial training-FreeAT_优快云
Adversarial Training for Freeadversarial training for free, NeurIPS 2019Introduction首先是鲁棒性的定义:A robust classifier is one that correctly labels adversarially perturbed images.其次是实现鲁棒性的方法:检测并剔除对抗样本(detecting and rejecting Adv. Examp.)然后是对抗训练的问题,首
2020-12-17 17:38:20
2953
1
原创 PGD_Towards deep learning models resistant to adversarial attacks_优快云
Towards Deep Learning Models Resistant to Adversarial AttacksTowards Deep Learning Models Resistant to Adversarial Attacks (PGD),ICLR2018,涉及PGD和对抗训练。**Abstract:**本文从优化的角度研究了神经网络的对抗鲁棒性问题。本文提出的方法提供了一个广阔、统一的观点来看待对抗样本的问题。本文提出方法的自然性质使得我们可以可靠的选择训练和攻击神经网络的方法,并且
2020-12-17 17:27:00
2866
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人