
人工智能安全
文章平均质量分 88
人工智能安全
swpu_jx_1998
这个作者很懒,什么都没留下…
展开
-
2022-06-28-06-29
在这项工作中,我们提出用一个小的“检测器”子网络来增强深度神经网络,该子网络被训练用于二值分类任务,即从包含对抗性扰动的数据中区分真实数据。我们的经验表明,对抗性扰动可以被很好地检测到,即使它们对人类是准难以察觉的。此外,虽然探测器被训练成只检测特定的对手,但它们可以推广到相似和较弱的对手。此外,我们提出了一种对抗性攻击,它欺骗了分类器和检测器,以及一种新的检测器训练程序来抵消这种攻击。 我们通过(相对较小的)子网来增强分类网络,该子网在某一层脱离主网络,并产生一个输出padv∈[0,1]p_{ad原创 2022-06-28 20:52:12 · 842 阅读 · 0 评论 -
文献调研报告
深度神经网络 (DNN) 容易受到对抗性攻击(主要的攻击方法:FGSM,PGD,CW,Elastic Net,BPDA,SPSA 暂时没有深入调研攻击方式,后面会陆续给出几种攻击方式的原理),只要提供经过训练的模型,就可以修改输入从而产生错误输出。这些修改后的对抗样本能有效欺骗在不同训练数据不同子集上的训练模型。事实证明,对抗性攻击对部署在现实环境中的模型有效,例如无人驾驶汽车、面部识别和物体识别系统。针对对抗性攻击已有的防御方法主要有两种 “对抗训练(Adversarial training)” 和原创 2022-06-22 22:11:13 · 952 阅读 · 0 评论 -
2022-06-21
符号系统定义分类模型 f:Rd→Rnf:\mathbb{R}^d \to \mathbb{R}^nf:Rd→Rn ,输入 x∈Rdx\in \mathbb{R}^dx∈Rd,输出 f(x)∈Rnf(x)\in \mathbb{R}^nf(x)∈Rn.检测约束:g:Rd→Rg:\mathbb{R}^d \to \mathbb{R}g:Rd→R,g(x) 0g(x)>0 不满足条件.真实标签:c(x)=yc(x)=yc(x)=y.损失函.........原创 2022-06-20 20:39:01 · 126 阅读 · 0 评论 -
Gotta Catch ’Em All
防御对抗攻击:Gotta Catch ’Em All: Using Honeypots to Catch Adversarial Attacks on Neural Networks (CCS '20: Proceedings of the 2020 ACM SIGSAC Conference on Computer and Communications SecurityOctober 2020)论文背景 深度神经网络 (DNN) 容易受到对抗性攻击(主要的攻击方法:FGSM,PGD,CW,Elast原创 2022-05-31 12:15:09 · 374 阅读 · 0 评论 -
2022.05.23 - 2022.05.29
传送门2022-05-23Proof of Theorem 1这个定理假设在向模型中注入 Δ\DeltaΔ 后,我们就有了∀x∈X,Pr(Fθ(x+Δ)=yt≠Fθ(x))≥1−μ(1)\forall x\in\mathcal{X}, Pr(\mathcal{F}_\theta(x+\Delta)=y_t\neq\mathcal{F}_\theta(x))\geq 1-\mu \tag{1}∀x∈X,Pr(Fθ(x+Δ)=yt=Fθ(x))≥1−μ(1)当攻击者应用基于梯度的优化来寻原创 2022-05-23 19:37:34 · 194 阅读 · 0 评论 -
2022.05.17 - 2022.05.22
2022-05-17防御对抗攻击:Gotta Catch ’Em All: Using Honeypots to Catch Adversarial Attacks on Neural Networks (CCS '20: Proceedings of the 2020 ACM SIGSAC Conference on Computer and Communications SecurityOctober 2020)论文背景 深度神经网络 (DNN) 容易受到对抗性攻击(主要的攻击方法:FGSM,原创 2022-05-17 20:18:31 · 899 阅读 · 0 评论 -
循环神经网络模型
循环神经网路文章目录循环神经网路一、序列模型统计工具二、使用步骤1.引入库2.读入数据总结提示:以下是本篇文章正文内容,下面案例可供参考一、序列模型统计工具在时间ttt观察到xtx_txt,那么得到TTT个不独立的随机变量(x1,x2,...,xT)∽p(X)(x_1,x_2,...,x_T) \backsim p(\bf{X})(x1,x2,...,xT)∽p(X)使用条件概率展开 p(a,b)=p(a)p(b∣a)=p(b)p(a∣b)p(a,b)=p(a)p(b|a)=p原创 2021-11-26 14:10:46 · 721 阅读 · 0 评论 -
MAHAKIL方法解读
MAHAKIL: Diversity Based Oversampling Approach to Alleviate the Class Imbalance Issue in Software Defect Prediction论文解读摘要高度不平衡的数据通常会使准确预测变得困难。不幸的是,软件缺陷数据集往往有缺陷的模块比无缺陷的模块少。合成过采样方法通过创建新的在训练模型之前平衡类分布的少数有缺陷的模块。尽管取得了成功这些方法主要导致过度泛化(误报率高)并生成近乎重复的数据实例(不太多样化的数据)。原创 2021-11-24 14:27:25 · 2305 阅读 · 0 评论 -
Predicting Domain Generation Algorithms with Long Short-Term Memory Networks
Predicting Domain Generation Algorithms with Long Short-Term Memory Networks 解读RNN模型1.为什么会有RNN模型RNN称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。CNN对于简单的猫,狗,手写数字等单个物体的识别具有较好的效果. 但是, 对原创 2021-10-17 23:22:56 · 461 阅读 · 1 评论 -
第三周周报(2021-09-18)
文章目录一、本周任务二、已完成的任务1.论文2.运行代码三、下周任务计划一、本周任务读师兄的论文运行师兄给的代码二、已完成的任务1.论文论文的理解a) 论文思路来源:新冠检测的方法是首先,将多个采集样本混合在一起检测,这样就对一片大的区域进行了调查,对于有问题的样本,在对该区域进行仔细的测试;这种方法如果可以用在流量分析上,在理论上这种方法是可以大大提高检测效率的。b) 思路设计:Ⅰ. 多示例包生成将数据样本通过数据的服务类型(或者其他的方式)区分为大小相同的包,对于没有nag原创 2021-09-18 23:00:07 · 134 阅读 · 0 评论 -
2021年人工智能安全方向第三周周报
一、快速进入研究的方法读综述性的文献 —》自己写综述性的文献.学习已有的工作,了解其思想、方法,保持怀疑的态度,找到其中的不足和缺陷.二、下一步的任务2.1 确定横向工作横向工作有助于提升个人的工程能力二维码(图像处理)鼾声识别(语音增强)安全开发游戏难度动态调整2.2 帮助上线修改论文读懂论文,运行代码在此基础上,对论文提出修改意见(需要正确的理由)2.3 调研国内外做人工智能安全的团队调研团队的工作,纵向溯源,理清其研究的历程整理收集到的资料,尝试写一篇文献综原创 2021-09-14 23:42:43 · 651 阅读 · 0 评论 -
魔鬼训练4-5天
作业day1描述你在学习、使用数学表达式时的困难, 可举例说明.原创 2021-07-26 21:44:13 · 181 阅读 · 0 评论 -
第四周周报(2021-09-24)
文章目录一、本周任务二、已完成的任务1.恶意域名检测相关论文1.1 基于特征提取的机器学习检测1.2 基于无特征提取的深度学习方法的检测三、未完成任务四、下周任务计划一、本周任务继续跟进师兄的代码和论文调研人工智能安全的国内外团队的研究成果学习机器学习的十种基本算法二、已完成的任务1.恶意域名检测相关论文1.1 基于特征提取的机器学习检测Ⅰ.根据域名字符统计特征的检测a)Davuth N,Kim S R. Classification of malicious domain name原创 2021-09-25 20:25:02 · 676 阅读 · 0 评论 -
魔鬼训练1-3天
作业day1描述你在学习、使用数学表达式时的困难, 可举例说明.答案:主要遇到的问题:a.数学表达式比较多,如果不是经常使用的话很容易就会忘记,例如数学中的希腊字母,不仅难写,还经常读错;b.很多的数学的表达有相似之处容易搞混,例如集合 A→BA \to BA→B 和 函数 A↦BA \mapsto BA↦B 这两个的箭头符号就容易搞混.令 A={3,5}\mathbf{A} = \{3, 5\}A={3,5}, 写出 2A2^{\mathbf{A}}2A.答案:{{∅},{3},{5},{3,原创 2021-08-08 09:21:46 · 125 阅读 · 0 评论