论文阅读:2023 arxiv Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks

总目录 大模型安全相关研究:https://blog.youkuaiyun.com/WhiffeYF/article/details/142132328

Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks
对抗性攻击揭示的大型语言模型漏洞调查

https://arxiv.org/pdf/2310.10844

速览

大型语言模型中的漏洞调查:对抗性攻击揭示的安全隐患

大型语言模型(LLMs)在架构和能力上迅速发展,随着它们在复杂系统中的深度集成,审查其安全属性的紧迫性也在增加。本文调查了对LLMs进行对抗性攻击的研究,这是可信机器学习的一个子领域,结合了自然语言处理和安全的视角。

对抗性攻击概述
对抗性攻击是一种已知的威胁向量,通过精心操纵的输入,可以使机器学习模型产生错误的输出,从而被攻击者利用。这些攻击可以是有目标的,试图将模型的输出改变为特定类别或文本字符串,或者是无目标的,只是为了导致错误的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CSPhD-winston-杨帆

给我饭钱

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值