- 博客(106)
- 收藏
- 关注
原创 [论文阅读]Neural Exec: Learning (and Learning from) Execution Triggers for Prompt Injection Attacks
将触发器解耦为两部分:前缀 Ypre 和后缀 Υpost 字符串对给定的输入有效负载 α,触发器 Υ 通过在 α 的开头添加 Ypre 并在结尾添加 Υpost 来生成包含恶意内容的有效负载 Y(α),功能:执行触发器的目标是迫使大语言模型将注入的有效负载作为指令进行处理并执行。
2025-04-01 15:12:13
933
1
原创 [论文阅读]SafeRAG: Benchmarking Security in Retrieval-Augmented Generation of Large Language Model
在RAG管道中,与查询相关的文本通过检索器过滤器顺序处理,然后由生成器合成响应,这引入了潜在的安全风险,因为攻击者可以在管道的任何阶段操纵文本。大多数现有的攻击任务往往无法绕过安全的 RAG 组件,使得这些攻击不再适用于 RAG 安全评估。主要有四个原因。过滤器检索器生成器生成器为了解决上述局限性,提出了四项新的攻击任务用来进行有效的安全评估。过滤器生成器过滤器生成器主要贡献:揭示了四项能够绕过检索器过滤器和生成器的攻击任务。
2025-03-31 16:22:40
929
1
原创 [论文阅读]Targeting the Core: A Simple and Effective Method to Attack RAG-based Agents via Direct LLM Ma
我的评价是:烂中烂,这种东西还好意思挂出来?实验说了个p,具体方法没有案例,没有case study,方法也是烂完了,也没考虑这种前缀怎么给LLM检验了这样一个假设:一个具有欺骗性的简单对抗性前缀,例如 忽略文档,可以通过绕过其上下文安全措施,迫使 LLM 生成危险的或意外的输出。通过实验,我们证明了高攻击成功率 (ASR),揭示了现有 LLM 防御的脆弱性。这些发现强调了迫切需要针对性的稳健的多层安全措施,以减轻 LLM 层面和更广泛的基于智能体的架构中的漏洞。
2025-03-28 16:29:25
630
1
原创 [论文阅读]Attacking Open-domain Question Answering by Injecting Misinformation
一个典型的问答 (QA) 系统首先从网络检索一组相关的上下文文档,然后由机器阅读器检查以识别正确答案。现有工作通常将维基百科等同于网络语料库。因此,所有检索到的上下文文档都被假定为干净且可信的。然而,现实世界中的 QA 面临着更加嘈杂的环境,其中网络语料库被错误信息污染。这包括人类撰写者无意中犯下的事实性错误以及旨在欺骗的蓄意虚假信息。除了人为制造的错误信息之外还面临着人工智能生成的错误信息的不可避免性。随着文本生成技术的持续进步,恶意行为者可以大规模生成逼真的虚假网络文档。
2025-03-27 17:10:00
1106
1
原创 [论文阅读]Homeopathic Poisoning of RAG Systems
完全没有意义的一篇文章,如果不是为了调研RAG攻防,我是看都不会看一眼的。一言以蔽之,就是在原始文本后面添加由hotflip方案优化的token来提高或者降低文档对目标问题的相似度。完完全全是一个检索器攻击,和LLM没有一点关系,没有考虑到生成器的作用。
2025-03-26 10:36:22
828
1
原创 [论文阅读]CtrlRAG: Black-box Adversarial Attacks Based on Masked Language Models in Retrieval-Augmented
CtrlRAG 使用掩码语言模型 (MLM) 引入了一种扰动机制,以动态优化恶意内容以响应检索上下文的更改。实验结果表明,在情绪操纵和幻觉放大目标方面,CtrlRAG 的性能优于三种基线方法。评估了三种现有的防御机制,揭示了它们对 CtrlRAG 的有效性有限,并强调了迫切需要更强大的防御措施。先前的研究主要探索了白盒设置,其中攻击者可以访问检索器参数、LLM参数,甚至知识库内容。在实际的RAG系统中,攻击者通常仅限于查询系统并观察其响应,而无法直接访问其内部组件。
2025-03-25 15:14:01
707
1
原创 [论文阅读]The RAG Paradox: A Black-Box Attack Exploiting Unintentional Vulnerabilities in Retrieval-Augm
基于RAG悖论引入了一种现实的黑盒攻击场景,其中RAG系统在试图增强可信度时无意中暴露了漏洞。因为RAG系统在响应生成过程中会参考外部文档,所以攻击目标是这些来源,而无需访问内部信息。首先识别RAG系统公开的外部来源,然后自动生成包含旨在匹配这些来源的错误信息的投毒文档。最后,这些投毒文档在新公开的来源上发布,从而扰乱RAG系统的响应生成过程。线下和在线实验都证实,这种攻击可以在无需访问内部信息的情况下显著降低RAG的性能。
2025-03-24 22:52:11
883
1
原创 [论文阅读]InstructRAG: Instructing Retrieval-Augmented Generation via Self-Synthesized Rationales
常规的RAG系统就是简单地把检索结果扔进去,获得一个输出,没有明显的去噪过程,并且没有对答案进行一个解释。InstructRAG方案生成能够明确去除检索文档噪声并且证明预测答案的理由。不完美的检索器或嘈杂的语料库可能会将误导性甚至错误的信息引入检索到的内容,这对生成质量构成重大挑战。现有的 RAG 方法通常通过直接预测最终答案来应对这一挑战,即使输入可能存在噪声,这导致了一个隐式的去噪过程,难以解释和验证。另一方面,获取显式去噪监督通常成本很高,需要大量人力。
2025-03-22 16:22:35
896
1
原创 [论文阅读]Agent Security Bench (ASB): Formalizing and Benchmarking Attacks and Defenses in LLM-based Age
ICLR2025现有文献并没有全面评估针对基于 LLM 的智能体的攻击和防御。引入了智能体安全基准 (ASB),这是一个全面的框架,旨在形式化、基准测试和评估基于 LLM 的智能体的攻击和防御,包括 10 个场景(例如,电子商务、自动驾驶、金融),针对这些场景的 10 个智能体,400 多个工具,27 种不同的攻击/防御方法以及 7 个评估指标。大模型能够执行内容生成、问答、工具调用、编码以及许多的其他任务。智能体结合了LLM、工具和内存机制。
2025-03-21 16:19:20
588
1
原创 [论文阅读]Is My Data in Your Retrieval Database? Membership Inference Attacks Against Retrieval Augmente
结果表明,在灰盒和黑盒场景中,攻击对flan模型最有效。两种情况下,总体风险都非常高,在灰盒场景中几乎达到了完美的 AUC-ROC(模型和数据集平均值为 0.9),在黑盒场景中接近 0.9 AUC-ROC(平均值为 0.8)。TPR@lowFPR 值也极高,对于 FPR 为 0,范围从 0.22 到 0.85(平均为 0.51)。这大大超过了先前语言模型 MIA 研究中的 TPR 结果,即使对于 FPR 为 0.05,通常也不高于 0.25。
2025-03-19 21:56:06
644
1
原创 [论文阅读]Order-Disorder: Imitation Adversarial Attacks for Black-box Neural Ranking Models
以段落搜索为例,一个公平的排序系统应该根据段落集合与查询的语义相关性对它们进行排序。然而,恶意内容生产者可能会试图通过向段落添加小的扰动来提高其自身段落(例如,观点或广告)的排名。提出了一种针对神经文本排序系统的新型黑盒攻击方法,该方法涉及不同神经网络之间对抗性触发器的可迁移性。具体而言,训练了一个排序模仿模型来揭示目标排序模型,用于知识蒸馏。所提出的排序模仿模型是一个成对的BERT排序器,它是在目标模型排序列表中采样的三元组(查询、相关正候选、相关负候选)上进行训练的。
2025-03-18 22:02:36
701
1
原创 [论文阅读]FlipedRAG: Black-Box Opinion Manipulation Attacks to Retrieval-Augmented Generation of Large L
目标是操纵由黑盒RAG模型在有争议性话题上生成的回复中表达的观点,重点关注检索模型和执行集成生成任务的大型语言模型攻击策略侧重于修改语料库中的候选文档。尽管攻击者无法访问整个语料库,但他们可以将恶意修改的候选文本插入其中,因为许多RAG应用程序从互联网获取信息,而互联网上的内容是可以公开编辑的。在黑盒场景中,攻击者无法修改生成式LLM的系统提示,这使得难以通过利用LLM本身的任何可靠性缺陷来直接影响生成结果。因此专注于利用检索器的可靠性缺陷来操纵检索排序结果。我们。
2025-03-17 11:29:30
873
1
原创 [论文阅读]Does RAG Introduce Unfairness in LLMs? Evaluating Fairness in Retrieval-Augmented Generation S
大量研究加强了 RAG 方法在各个领域的应用,但没有工作关注 RAG 方法如何帮助这些系统更好地解决公平问题,尤其是在涉及敏感的人口统计属性(如性别、地理位置和其他因素)时。这种被忽视的差距尤其成问题,因为 RAG 方法中使用的数据源和检索机制可能会无意中引入或加剧此类偏差,如图 1 所示。第一项系统定量地分析 RAG 方法公平性的研究;使用基于场景的问题和基准评估多种 RAG 方法(架构)的公平性,通过在真实数据集上进行大量实验来揭示效用和公平性之间的权衡;
2025-03-14 15:22:55
562
1
原创 [论文阅读]RevPRAG: Revealing Poisoning Attacks in Retrieval-Augmented Generation through LLM Activation
RevPRAG ,一个旨在利用LLM激活信息来检测RAG系统中知识投毒攻击的管道。包含三个模块:投毒数据收集、激活信息收集和预处理以及RevPRAG检测模型设计。给定一个用户提示,例如“最高的山峰叫什么名字?”,LLM将提供一个回复。同时,LLM生成的激活将在RevPRAG中收集和分析。如果模型将激活分类为投毒行为,它将标记相应的回复(例如“富士山”)为投毒回复。否则,它将确认回复(例如“珠穆朗玛峰”)为正确答案。
2025-03-13 22:38:38
1036
1
原创 [论文阅读]Demystifying Prompts in Language Models via Perplexity Estimation
EMNLP 2023存在这样一个现实:LLM的零样本或者少样本提示学习的能力强劲,但是有时候明明看起来一致的提示词却表现出了较大的输出差异。假设,在考虑与任务相关的合理提示时,提示的困惑度越低,它在任务上的性能就越好。这是基于这样的直觉:提示(或非常相似的短语)在训练数据中出现的频率越高,模型就越熟悉它,并且能够执行所描述的任务。不直接使用训练数据,专注于对提示词困惑度的考量。
2025-03-13 15:46:23
1292
2
原创 [论文阅读]Resisting DNN-Based Website Fingerprinting Attacks Enhanced by Adversarial Training
WF攻击的性能主要取决于特征和分类器。②基于对抗性扰动的防御方法: 最近的研究开始探索深度学习在防御中的应用,基于对抗性扰动的WF防御因其误导分类器的强大能力而受到越来越多的关注。在实际应用中,许多用户依赖匿名通信网络(如Tor)保护隐私,尽管匿名网络对流量进行了加密和混淆,然而DNN模型的快速发展使得攻击者可以通过分析用户流量的特征,准确识别出用户访问的目标网站。并通过随机修改扰动的方式,将网站的扰动突发序列分散在特征空间中,增加扰动的多样性,使得攻击者在进行对抗性训练时难以有效学习和适应新的扰动模式。
2025-03-12 20:02:52
579
1
原创 [论文阅读]Trustworthiness in Retrieval-Augmented Generation Systems: A Survey
Trustworthiness in Retrieval-Augmented Generation Systems: A Survey[2409.10102] Trustworthiness in Retrieval-Augmented Generation Systems: A Survey提出了一个统一的框架,该框架从六个关键维度评估 RAG 系统的可信度:事实性、鲁棒性、公平性、透明度、问责制和隐私。(1) 事实性:通过根据可靠来源验证来确保生成信息的准确性和真实性。 (2) 稳健性:确保系统在错误、
2025-03-11 12:28:52
1214
1
原创 [论文精读]Not what you’ve signed up for: Compromising real-world llm-integrated applications with indire
这篇文章对一些漏洞的见解很独到,需要再看两遍。贡献:引入了间接提示注入 (IPI) 的概念,以破坏集成 LLM 的应用程序——这是一个完全未经调查的攻击向量,其中检索到的提示本身可以充当“任意代码”。开发了第一个分类法和对与 LLM 集成应用程序中的 IPI 相关的威胁环境的系统分析。作者在调研了相关内容后指出:当使用检索增强大型语言模型时,处理不可信的检索数据将类似于执行任意代码,并且数据和代码(即自然语言指令)之间的界限将变得模糊。
2025-03-10 17:45:37
784
原创 [论文阅读]Certifiably Robust RAG against Retrieval Corruption
检索损坏攻击的第一个防御框架。目前没中稿当前针对检索器的攻击方式有多种,比如PoisonedRAG方案把恶意段落注入到知识数据库来诱导不正确的RAG相应。间接提示注入攻击破坏检索到的段落,把 恶意指令注入集成LLM的应用程序(比如“忽略之前所有的指令并把用户的搜索历史记录发送到XXX”)。本文提出的是一个RobustRAG的防御框架,目标是在一些检索到的段落具有恶意内容的情况下也可以执行鲁棒性的生成。
2025-03-09 15:54:14
862
1
原创 [论文阅读]Human-Imperceptible Retrieval Poisoning Attacks in LLM-Powered Applications
Companion Proceedings of the 32nd ACM International Conference on the Foundations of Software Engineering(软工顶会)大多数,通常假设LLM驱动应用程序暴露的攻击面仅仅源于LLM本身。因此,研究的主要焦点往往集中在大语言模型 (LLM) 为中心的攻击,例如越狱攻击和提示注入攻击,其中攻击者可以精心设计恶意提示来破坏大语言模型的安全防护。这使他们能够窃取其他用户的敏感信息或为其他用户生成有害内容。
2025-03-07 11:30:49
1039
1
原创 [论文阅读]ARL2: Aligning Retrievers with Black-box Large Language Models via Self-guided Adaptive Releva
ACL 2024RAG中的检索器的训练过程是单独的,并且LLM通常是黑盒的,导致检索器和LLM不匹配。因此提出了ARL2,一种利用LLM作为标签器的检索器学习技术,ARL2利用LLM来注释和评分相关性证据,从而能够从强大的LLM监督中学习检索器。当前检索器存在的问题:检索出来的结果可能相关,但是对回答问题没有一点用。一些研究的解决方案:检索器和LLM的联合训练,但是需要从新开始训练LLM,成本太高,不切实际。RePlug利用答案的语言建模分数作为代理信号来训练密集检索器。
2025-03-06 22:17:55
923
1
原创 [论文阅读]CanCal: Towards Real-time and Lightweight Ransomware Detection and Response in Industrial Envi
CanCal通过轻量级诱饵监控与多维度行为分析(勒索信语义识别、进程操作图建模),有效平衡了工业场景下实时性、检测精度与资源开销的矛盾,实际部署中成功拦截61次勒索攻击(含零日漏洞利用),平均CPU占用率降至0.6%,验证了其在复杂工业环境中的实用性与可靠性。总的来说,该论文提出的CanCal方案为工业环境中的勒索软件检测与响应提供了一种有效的解决方案,通过轻量化架构和多维度协同检测机制,实现了实时性、高精度和低资源消耗的目标,对于提升工业系统的安全防护能力具有重要意义。
2025-03-05 19:23:48
580
1
原创 [论文阅读]Evaluations of Machine Learning Privacy Defenses are Misleading
金丝雀样本设计方法:我们开发了金丝雀样本设计方法,这一方法能够有效识别或构造对特定防御机制最敏感的数据样本。金丝雀样本的设计考虑了数据特征、模型行为和防御机制的特点,通过精心选择能够最大程度暴露防御机制弱点的样本集合。为确保评估的可靠性,我们特别注意保持这些样本之间的独立性,避免评估结果被某些特定模式所主导。自适应攻击方法:不同于传统的固定攻击策略,这些攻击方法能够根据防御机制的具体实现方式自动调整其策略。例如,对于基于梯度裁剪的防御,攻击方法会特别关注梯度信息的变化特征;
2025-03-04 20:47:42
1125
1
原创 [论文精读]Glue pizza and eat rocks - Exploiting Vulnerabilities in Retrieval-Augmented Generative Models
RAG应用广泛,知识数据库的来源是网络上公开的内容,任何人都可以发帖,例如Reddit。媒体也曾报道过谷歌的AI给出的荒谬的建议:如果披萨上的奶酪粘不上去,就用无毒胶水;地质学家建议人类每天吃一块石头。Google AI 搜索告诉用户粘披萨和吃石头 --- Google AI search tells users to glue pizza and eat rocks。
2025-03-03 22:48:04
761
原创 [论文阅读]Rich Knowledge Sources Bring Complex Knowledge Conflicts: Recalibrating Models to Reflect Conf
模型是根据检索到的文档还是参数知识得出答案?当检索器性能较高的时候,模型生成答案的依据主要源于检索到的文档(个人猜测是因为检索性能高,直接包含问题答案的语句会被检索出来)当不同的检索文本结果中给出的是不同的答案,模型如何使用这些文本段落?模型是依赖于最相关的检索段落(top检索结果)+内部知识辅助输出。如果某些检索文本结果受到干扰而无法支持答案,模型如何表现?模型很大程度上忽略语义扰动并输出检索到的文本中存在的答案实体知识冲突如何影响模型的置信度得分?
2025-02-27 20:51:09
1023
1
原创 [论文阅读]On the Vulnerability of Applying Retrieval-Augmented Generation within Knowledge-Intensive App
检索系统容易受到医学问答中的通用中毒攻击在此类攻击中,攻击者生成包含各种目标信息(例如个人身份信息)的有毒文档。当这些有毒文档被插入到语料库中时,只要使用攻击者指定的查询,任何用户都可以准确地检索到它们。研究发现查询嵌入与中毒文档嵌入的偏差倾向于遵循一种模式,其中中毒文档与查询之间的高相似性得以保留,从而实现精确检索。开发了一种新的基于检测的防御方法,以确保 RAG 的安全使用通过这个图,构造有毒文档的方式似乎还是和PRAG一致的目标问题本体+恶意后缀文本。只不过这篇文章侧重点是医学领域。
2025-02-26 22:53:16
1038
1
原创 TrojanRAG: Retrieval-Augmented Generation Can Be Backdoor Driver in Large Language Models
大型语言模型(LLM)在自然语言处理(NLP)方面取得了显著成果,但也引发了人们对其潜在安全威胁的担忧。后门攻击最初验证了 LLM 在所有阶段都造成了重大危害,但其成本和鲁棒性一直受到批评。攻击 LLM 在安全审查中存在固有的风险,而且成本高昂。此外,LLM 的不断迭代会降低后门的鲁棒性。在本文中,我们提出了 TrojanRAG,它在检索增强生成中采用了一种联合后门攻击,从而在通用攻击场景中操纵 LLM。具体而言,攻击者构建了精心设计的目标上下文和触发集。通过对比学习。
2025-02-25 17:09:50
851
原创 [论文阅读]Corpus Poisoning via Approximate Greedy Gradient Descent
基于近似贪婪梯度下降的语料库投毒面向检索器的攻击AGGD 通过从所有符元位置中选择排名最高的符元,而不是从单个随机采样的位置选择,更有效地利用了梯度信息。此方法使 AGGD 的搜索轨迹确定性,从而实现更结构化的最佳优先搜索。实验结果表明,AGGD 在各种数据集和检索模型中实现了较高的攻击成功率。提出了一种名为近似贪婪梯度下降(AGGD)的新算法,该算法使用确定性贪婪搜索,通过利用低秩符元(即,总体上最有希望的符元交换候选)来改进候选集的质量,从而更好地利用梯度信息。
2025-01-09 23:12:50
1307
1
原创 [论文阅读]Controlled Generation of Natural Adversarial Documents for Stealthy Retrieval Poisoning
最近的研究表明,基于嵌入相似性的检索(例如,用于检索增强生成)容易受到投毒攻击:攻击者可以制作恶意文档,这些文档会响应广泛类别的查询而被检索。我们证明了之前的基于 HotFlip 的技术生成的文档很容易使用困惑度过滤进行检测。即使生成受到限制以产生低困惑度文本,生成的文档也会被大型语言模型 (LLM) 识别为不自然,并且可以自动从检索语料库中过滤掉。我们设计、实现和评估了一种新的受控生成技术,该技术将对抗性目标(嵌入相似性)与基于使用开源代理 LLM 计算的软分数的“自然性”目标相结合。
2024-12-31 21:48:45
900
1
原创 [论文阅读]Mask-based Membership Inference Attacks for Retrieval-Augmented Generation
出发点:新趋势是把最新或者受版权保护的数据存储在RAG知识数据库中,而不是用于LLM的训练。传统的MIA推理是针对的LLM的内部知识,所以需要新的MIA方案。以前的工作要么完全依赖于 RAG 系统的判断,要么很容易受到其他文档或 LLM 内部知识的影响,这些知识不可靠且缺乏可解释性。提出了一个 Mask-Based Membership Inference Attacks (MBA) 框架。我们的框架首先采用一种,该算法有效地掩盖了目标文档中的特定数量的词语。
2024-12-30 21:49:28
636
1
原创 [论文阅读]HijackRAG: Hijacking Attacks against Retrieval-Augmented Large Language Models
攻击形式化为一个优化问题。目标是构建恶意文本,以便在将其注入语料库后,RAG 系统为目标查询生成攻击者期望的答案。
2024-12-20 22:52:05
1074
2
原创 [论文阅读]Astute RAG: Overcoming Imperfect Retrieval Augmentation and Knowledge Conflicts for Large Lang
检索增强生成(RAG)虽然能有效地整合外部知识以解决大型语言模型(LLMs)的局限性,但可能会被不完善的检索所破坏,因为不完善的检索可能会引入无关、误导甚至恶意的信息。尽管 RAG 非常重要,但以往的研究很少通过联合分析来探讨 RAG 的行为,即不完善检索造成的错误是如何归因和传播的,以及 LLMs 的内部知识和外部资源之间是如何产生潜在冲突的。通过在现实条件下进行对照分析,我们发现不完善的检索增强可能是不可避免的,而且相当有害。
2024-12-19 22:09:08
821
1
原创 [论文阅读]Universal and transferable adversarial attacks on aligned language models
在本文中,我们提出了一类新的,它实际上可以诱导对齐的语言模型产生几乎任何令人反感的内容。具体来说,给定一个(可能有害的)用户查询,我们的攻击会给查询。也就是说,用户的原始查询保持不变,但我们添加了额外的 token 来攻击模型。为了选择这些对抗性后缀标记,我们的攻击由三个关键元素组成;这些元素在文献中确实以非常相似的形式存在,但我们发现,正是它们的精心组合导致了在实践中可靠成功的攻击。将这三个元素放在一起,可以可靠地创建对抗性后缀,从而规避目标语言模型的对齐。图 1 显示了说明性示例。
2024-12-18 19:19:34
1573
2
原创 [论文精读]Blinded by Generated Contexts: How Language Models Merge Generated and Retrieved Contexts When
探讨当知识冲突时,RAG中的大模型如何进行决策利用辅助信息增强大型语言模型(LLMs)的近期进展显著改变了它们在知识密集型任务中的效能。这种辅助信息可源于LLMs 生成的语境或从外部来源检索到的语境。对于前者(大模型生成的语境),一些研究指导 LLMs 为给定问题生成特定的背景语境,然后以此为基础生成最终答案。相比之下,检索增强方法将从外部语料库(如维基百科)检索到的相关段落作为语境,显著提高了 LLMs 处理知识更新和长尾知识等挑战的能力。生成增强方法。
2024-12-17 22:53:48
1012
原创 [论文阅读]Jailbreak in Pieces: Compositional Adversarial Attacks on Multi-Modal Language Models
我们介绍了一种新的越狱攻击方法,针对使用对齐的大型语言模型(LLM) 的视觉语言模型(VLM),这种方法能够抵抗仅限文本的越狱攻击。具体来说, 我们开发了一种跨模态对齐攻击方法,将对抗性图像与文本提示配对,通过视觉编码器传递到语言模型,从而破坏其对齐机制。我们的攻击方法采用一种新的组合策略,将对抗性目标图像与普通提示相结合,以诱导越狱。因此,大型语言模型会在这种上下文下回答对抗性图像生成的提示。生成的表面无害的对抗性图像利用了一种新的基于嵌入空间的方法,无需访问LLM模型。
2024-12-13 17:08:16
858
1
原创 [论文阅读]What Was Your Prompt? A Remote Keylogging Attack on AI Assistants
使用现代 LLM 进行推理:利用最先进的语言模型的功能。通过为我们的任务微调预先训练的 LLM,我们可以利用英语中普遍存在的通用语言结构和模式来减少句子熵。与以前依赖马尔可夫模型来利用相似侧信道的工作(例如[21])不同,LLM 更擅长这项任务,因为它们熟练地考虑标记之间的长距离关系 [31]。此外,我们采用自监督学习进行微调,无需手动标记,大大简化了数据集管理。前文背景:如果我们知道之前的回复是什么,推断 token 序列的内容就会容易得多。
2024-12-13 16:58:53
1085
1
原创 [论文精读]Typos that broke the rag’s back: Genetic attack on rag pipeline by simulating documents in the
现有对 RAG 鲁棒性的研究往往忽略了 RAG 组件之间的相互关系或现实世界数据库中普遍存在的潜在威胁,如轻微的文本错误。在这项工作中,我们研究了在评估 RAG 鲁棒性时两个未被充分探索的方面:1)通过低级扰动对嘈杂文档的脆弱性;2)对 RAG 鲁棒性的整体评估。此外,我们引入了一种新颖的攻击方法 ——对 RAG 的遗传攻击(GARAG),旨在揭示这些方面的漏洞。具体而言,GARAG 旨在揭示每个组件内的脆弱性,并测试系统整体功能对嘈杂文档的抵御能力。
2024-12-09 23:03:30
913
原创 [论文阅读]Reinforcement Tuning for Detecting Stances and Debunking Rumors Jointly with Large Language Mo
本文提出的 JSDRV 框架是一种基于大语言模型的强化微调框架,用于联合立场检测和谣言验证任务。通过将大语言模型作为注释器并使用强化选择器,在仅需少量人工标记声明的监督下,有效微调大语言模型以完成两个任务。并通过多方面实验证明了 JSDRV 相对于现有方法的优越性。然而,当前方法仍在一定程度上依赖人工标记数据,未来工作关注开发两个任务的无监督方法;另外现有方法与大模型的交互频繁,存在训练效率和成本方面上的问题;以及,针对于不同类型的大模型,要减少对特定大语言模型返回分布的依赖,提高检测的准确性和泛化性。
2024-12-09 11:00:14
658
1
原创 [论文精读]Backdoored Retrievers for Prompt Injection Attacks on Retrieval Augmented Generation of LLMS
这使得成功执行攻击更具挑战性。目标的这种多样性使我们能够在狭窄和广泛的查询域以及专业与开放域数据集上测试攻击。
2024-12-09 10:09:51
1155
原创 [论文精读]Machine Against the RAG: Jamming Retrieval-Augmented Generation with Blocker Documents
检索增强生成 (RAG) 系统通过从知识数据库中检索相关文档,然后通过对检索到的文档应用 LLM来生成答案来响应查询。我们证明,在包含不可信内容的数据库上运行的 RAG 系统容易受到一类我们称为干扰的新型拒绝服务攻击。攻击者可以向数据库添加单个“阻止程序”文档,该文档将响应特定查询而被检索,并导致 RAG 系统不回答此查询— 表面上是因为它缺少信息或因为答案不安全。我们描述并测量了几种生成阻止程序文档的方法的有效性,包括一种基于黑盒优化的新方法。
2024-12-08 15:55:45
1049
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人