- 博客(2)
- 收藏
- 关注
原创 【笔记】Evaluating Adversarial Attacks on Driving Safety in Vision-Based Autonomous Vehicles
在本文中,我们的目标是通过评估两种类型的代表性对抗性攻击、扰动攻击和补丁攻击对基于视觉的自动驾驶系统驾驶安全性的影响来回答上述问题,而不是深度学习模型的准确性。在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加在原来的输入上就得到了在FGSM攻击下的样本。这种类型的对抗性攻击的目标是通过对人眼无法察觉的图像中的每个像素添加小的更改来使深度学习模型功能失调。对抗性攻击的主要思想是利用输入中的微小变化来触发深度学习模型输出中的重大错误。
2023-09-25 17:50:20
173
1
原创 记录一次MongoDB查询优化
因为本接口主要负责以统计为主,对于复合查询的场景并不多,因此,在复合索引的优化、排序等等方面不够完善,想要学习的朋友可以查询:https://developer.aliyun.com/article/74635,对于复合索引的优先级有详细的解释。多多查阅官方文档,会有很多意外收获。
2023-09-12 15:03:21
753
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人