探索在生成扩散模型中基于RAG增强生成的实现与未来

概述

像 Stable Diffusion、Flux 这样的生成扩散模型,以及 Hunyuan 等视频模型,都依赖于在单一、资源密集型的训练过程中通过固定数据集获取的知识。任何在训练之后引入的概念——被称为 知识截止——除非通过 微调 或外部适应技术(如 低秩适应,LoRA)进行补充,否则不会出现在模型中。

因此,如果一个生成系统能够输出图像或视频,并且能够根据需要从在线资源中获取信息并将其纳入生成过程,那就再好不过了。例如,一个对最新苹果或特斯拉产品一无所知的扩散模型,仍然可以生成包含这些新产品的图像。

在语言模型方面,我们大多数人都熟悉像 Perplexity、Notebook LM 和 ChatGPT-4o 这样的系统,它们可以在 检索增强生成(RAG)模型中纳入新的外部信息。

然而,在生成图像方面,这种功能并不常见,ChatGPT 也会承认自己在这方面的局限性:

ChatGPT 4o 根据一般线条和它所解释的描述,对一款全新手表的外观做出了合理猜测;但它无法“吸收”并将新图像整合到基于 DALL-E 的生成中。

将检索到的外部数据纳入生成图像是具有挑战性的,因为传入的图像必须首先被分解为标记和嵌入,然后映射到模型对主题的最近训练知识领域。

尽管这一过程对于像 ControlNet 这样的后训练工具来说效果良好,但此类操作大多停留在表面,本质上是将检索到的图像通过渲染管道传递,而没有将其深度整合到模型的内部表示中。

因此,模型缺乏像 NeRF 这样的神经渲染系统的能力,后者能够以真正的空间和结构理解构建场景。

一、 成熟的逻辑

类似的限制也适用于大型语言模型(LLMs)中的 RAG 基查询,例如 Perplexity。当这种类型的模型处理检索到的外部数据时,其功能类似于一个成年人凭借一生的知识来推断某个主题的概率。

然而,就像一个人无法将新信息追溯性地整合到塑造其基本世界观的认知框架中——当他们的偏见和先入为主的观念仍在形成时——LLM 也无法将其新知识无缝地整合到其预训练结构中。

相反,它只能“影响”或并置新数据与其现有的内化知识,使用已学到的原则进行分析和推测,而不是在基础层面上进行综合。

在“并置”和“内化”生成之间的等效性不足,可能会在生成的图像中比基于语言的生成中更为明显:各种研究表明,“原生”(而非基于 RAG)生成的更深层次网络连接和更高的创造力已被 建立

二、RAG 能力图像生成的隐藏风险

即使在技术上可行地将检索到的互联网图像无缝整合到新合成的图像中,以 RAG 风格进行整合,安全相关的限制也会带来额外的挑战。

许多用于训练生成模型的数据集已经被策划,以尽量减少明确、种族主义或暴力内容等敏感类别的存在。然而,这一过程并不完美,残留的关联可能仍然存在。为了缓解这种情况,像 DALL·E 和 Adobe Firefly 这样的系统依赖于二级过滤机制,对输入提示和生成的输出进行筛查,以禁止相关内容。

因此,一个简单的 NSFW 过滤器——主要阻断明显露骨的内容——将不足以评估检索到的基于 RAG 的数据的可接受性。此类内容仍可能以超出模型预定义的审核参数范围的方式具有冒犯性或有害性,可能会引入 AI 缺乏适当评估情境意识的材料。

最近发现的 CCP 旗下的 DeepSeek 的一个漏洞,旨在压制对禁止政治内容的讨论,突显了如何利用替代输入路径绕过模型的伦理保障;可以说,这也适用于从互联网检索到的任意新数据,当它被纳入新的图像生成时。

三、 RAG 用于图像生成

尽管存在这些挑战和棘手的政治方面的问题,但仍有一些项目试图使用基于 RAG 的方法将新数据纳入视觉生成中。

3.1 ReDi

2023 年的 检索式扩散(ReDi)项目是一个无学习框架,通过从预计算的知识库中检索类似的 轨迹 来加速扩散模型推理。

数据集中的值可以在 ReDi 中“借用”用于新的生成

在扩散模型的背景下,轨迹是模型从 纯噪声 生成图像的逐步路径。通常,这个过程会逐渐发生,每一步都会稍微完善图像。

ReDi 通过跳过其中许多步骤来加速这一过程。它不是计算每一个步骤,而是从数据库中检索一个类似的过去轨迹,并跳到过程中的一个更晚的点。这减少了所需的计算量,使基于扩散的图像生成速度更快,同时仍然保持高质量。

ReDi 并不修改扩散模型的 权重,而是使用知识库跳过中间步骤,从而减少采样所需的函数估计数量。

当然,这并不等同于随意将特定图像纳入生成请求中;但它确实与类似类型的生成有关。

ReDi 于 2022 年发布,那一年潜扩散模型 吸引了 公众的想象力,ReDi 似乎是最早采用基于 RAG 方法的扩散基础方法之一。

尽管应该提到的是,2021 年 Facebook Research 发布了 实例条件 GAN,它试图将 GAN 图像条件化为新的图像输入,这种将图像投影到潜在空间的做法在文献中非常常见,无论是对于 GAN 还是扩散模型;挑战在于使这样一个过程成为训练自由的,并在实时中发挥作用,就像专注于 LLM 的 RAG 方法一样。

3.2 RDM

另一个早期尝试 RAG 增强图像生成的是 检索增强扩散模型(RDM),它引入了一种半 参数化 的生成图像合成方法。与传统扩散模型将所有学习到的视觉知识存储在其神经网络参数中不同,RDM 依赖于一个外部图像数据库:

RDM* 中说明性伪查询检索到的最近邻。

在训练过程中,模型从外部数据库中检索 __[最近邻](https://www.un在训练过程中,模型从外部数据库中检索 最近邻(视觉上或语义上相似的图像),以指导生成过程。这使得模型能够根据真实世界的视觉实例来调整其输出。

检索过程由 CLIP 提供支持,旨在确保检索到的图像与查询内容具有有意义的相似性,并提供新信息以改善生成效果。这种方法减少了对参数的依赖,使得模型能够在不需要庞大训练数据集的情况下实现具有竞争力的结果。

RDM 方法支持 事后修改:研究人员可以在推理时更换数据库,从而实现对新风格、领域甚至完全不同任务(如风格化或类别条件合成)的零样本适应。

RDM 的一个关键优势在于,它能够在不重新训练模型的情况下提升图像生成效果。通过简单地更改检索数据库,模型可以泛化到从未明确训练过的新概念。这对于存在 领域偏移 的应用场景特别有用,例如基于不断演变的数据集生成医学影像,或者将文本到图像模型适应于创意应用。

然而,这种基于检索的方法依赖于外部数据库的质量和相关性,这使得数据策划成为实现高质量生成的重要因素。此外,这种方法距离实现商业语言模型中典型的基于 RAG 的交互式图像合成仍有较大差距。

3.3 ReMoDiffuse

ReMoDiffuse 是一种用于 3D 人体运动生成的检索增强运动扩散模型。与依赖纯学习表示的传统运动生成模型不同,ReMoDiffuse 从大规模运动数据集中检索相关的运动样本,并将其整合到去噪过程中,其架构类似于 RDM(见上文)。

右侧为 RAG 增强的 ReMoDiffuse 与先前方法的对比

这使得模型能够生成更自然、更多样化且在语义上忠实于用户文本提示的运动序列。

ReMoDiffuse 采用了一种创新的 混合检索机制,基于语义和运动学相似性选择运动序列,以确保检索到的运动不仅在主题上相关,而且在物理上合理地整合到新生成中。

然后,模型使用 语义调制的 Transformer 对检索到的样本进行细化,有选择地整合检索到的运动知识,同时保持生成序列的特征品质。

ReMoDiffuse 的流程架构

该模型的 条件混合 技术增强了模型在不同提示和检索条件下的泛化能力,通过在生成过程中平衡检索到的运动样本与文本提示的权重,解决了扩散模型中常见的 分类器自由引导 技术的 尺度敏感性问题

这有助于防止不真实或重复的输出,即使对于罕见的提示也是如此。它还解决了扩散模型中常见的尺度敏感性问题,这种问题通常出现在分类器自由引导技术中。

3.4 RA-CM3

斯坦福大学 2023 年的论文 Retrieval-Augmented Multimodal Language Modeling(RA-CM3)允许系统在推理时访问现实世界的信息。


斯坦福大学的检索增强多模态语言模型(RA-CM3)使用从互联网检索到的图像增强生成过程,但目前仍处于原型阶段,尚未公开发布

RA-CM3 将检索到的文本和图像整合到生成流程中,增强文本到图像和图像到文本的合成效果。该模型使用 CLIP 进行检索,并以 Transformer 作为生成器,在生成输出之前引用相关的多模态文档。

在 MS-COCO 上的基准测试显示,与 DALL-E 和类似系统相比,RA-CM3 实现了 12 点的 Fréchet Inception Distance(FID)降低,且计算成本更低。

然而,与其他基于检索增强的方法一样,RA-CM3 并没有无缝内化其检索到的知识。相反,它将新数据叠加在其预训练的网络上,类似于 LLM 通过搜索结果增强回答。虽然这种方法可以提高事实准确性,但它并不能替代在需要深度合成的领域中更新训练的需求。

此外,目前尚未发布该系统的实际实现版本,甚至没有通过 API 平台提供。

3.5 RealRAG

来自中国的最新发布 Retrieval-Augmented Realistic Image Generation(RealRAG)引发了我们对 RAG 增强生成图像系统的关注。


RealRAG 中引入的外部图像(位于下方中间)
RealRAG 从公开可用的数据集(如 ImageNetStanford CarsStanford DogsOxford Flowers)中检索相关对象的实际图像,并将其整合到生成过程中,以填补模型的知识空白。

RealRAG 的一个关键组件是 自反式对比学习,它训练检索模型找到信息丰富的参考图像,而不仅仅是选择 视觉上相似 的图像。

作者指出:

“我们的关键见解是训练一个检索器,使其检索到的图像远离生成器的生成空间,但接近文本提示的表示。”

“为此,我们首先根据给定的文本提示生成图像,然后利用这些生成的图像作为查询,从基于真实对象的数据库中检索最相关的图像。这些最相关的图像被用作反思性负样本。”

这种方法确保检索到的图像为生成过程贡献了 缺失的知识,而不是强化模型中已有的偏见。

从左到右:检索到的参考图像;没有使用 RAG 的结果;使用检索图像的结果

然而,对检索质量和数据库覆盖范围的依赖意味着其有效性可能会因高质量参考图像的可用性而有所不同。如果相关图像不存在于数据集中,模型可能仍然难以处理不熟悉的概念。

RealRAG 采用了一种非常模块化的架构,兼容多种其他生成架构,包括基于 U-Net、DiT 和自回归的模型。

总体而言,检索和处理外部图像会增加计算开销,系统的性能取决于检索机制在不同任务和数据集上的泛化能力。

四、总结

这是一篇关于图像检索多模态生成系统的代表性而非穷尽性概述。一些此类系统仅使用检索来改善视觉理解或数据集策划,而不是寻求生成图像,例如 Internet Explorer

文献中还有许多其他基于 RAG 的项目尚未发布。只有发表研究论文的原型,例如 Re-Imagen,尽管它来自谷歌,但只能访问本地自定义数据库中的图像。

此外,2024 年 11 月,百度 宣布基于图像检索的增强生成(iRAG),这是一个使用“数据库”检索图像的新平台。尽管据报道 iRAG 可在 Ernie 平台上使用,但关于检索过程的细节似乎很少,它似乎依赖于一个 本地数据库(即服务本地的,用户无法直接访问)。

此外,2024 年的论文 Unified Text-to-Image Generation and Retrieval 提供了另一种基于 RAG 的方法,使用外部图像在生成时增强结果——同样,这些图像来自 本地数据库,而不是来自 即时互联网来源

围绕 RAG 增强图像生成的兴奋可能会集中在能够直接将互联网来源或用户上传的图像整合到生成过程中的系统上,并允许用户参与图像的选择或来源。

然而,这是一个重大挑战,原因至少有两个:首先,此类系统的有效性通常取决于在资源密集型训练过程中形成的深度整合关系;其次,如前所述的安全性、合法性以及版权限制等问题,使得这一功能不太可能成为 API 驱动的网络服务的特性,也不太可能在商业部署中实现。

原文地址:https://www.unite.ai/the-future-of-rag-augmented-image-generation/

<think>嗯,用户这次聚焦在游戏剧本生成中的实时互动和故事连贯性技术上,看来ta对动态叙事系统有专业级需求。从ta特意强调“技术实现”和引用要求来看,可能是游戏开发从业者或相关研究者。用户提供的三个引用中,[1]提到传统规则系统LLM的对比,[2]强调实时生成能力,[3]则指向工程实现,这些恰好构成技术回答的骨架。不过要注意,用户明确要求参考上次对话,上次提到的《AIDungeon》案例和RL微调方法需要融入本次回答。核心挑战在于:实时互动要求低延迟(200ms内响应),而连贯性需要长期叙事一致性。技术实现上要解决三个子问题:第一是短期上下文管理(当前对话),第二是长期情节一致性(整个故事线),第三是玩家行为解释(把操作转化为叙事指令)。数学表达方面需要突出两个关键公式:状态向量$s_t$的更新机制(控制连贯性),以及响应延迟的约束条件$t_{response}\leq200ms$。上次对话提到的交叉熵损失和强化学习奖励函数$R(s)$也要关联进来。多智能体架构可能是亮点,比如将叙事生成拆分为:剧情感知模块(处理世界观规则)、实时响应模块(轻量化生成)、记忆代理(向量数据库存储关键事件)。这样既能满足实时性,又能通过RAG检索维持连贯性。安全提醒部分很重要,要强调玩家输入过滤(防止Prompt注入破坏叙事)和伦理审查机制(避免生成不当内容),这在实际游戏开发中是硬性要求。最后的前沿趋势补充了扩散模型,这是较新的技术动向——StableDiffusion团队2023年已开始尝试结合LLM做游戏叙事生成,值得提及但需标注“实验性”。</think>以下是针对大模型在游戏剧本生成中处理**实时互动****故事连贯性**的技术实现详解,结合核心挑战解决方案展开: --- ### 一、实时互动的技术实现 #### 1. **低延迟响应架构** - **流式生成技术**:模型采用分块输出(Token-by-Token Streaming),玩家输入后立即逐词生成响应,延迟控制在 **200ms** 内[^1]。 - **轻量化模型部署**:使用蒸馏后的模型(如TinyGPT)或量化技术(INT8),在边缘设备(如游戏主机)运行推理[^3]。 - **示例**: ```python # 伪代码:流式生成实现 for token in model.stream_generate(prompt, max_tokens=50): game_ui.display(token) # 实时显示生成内容 ``` #### 2. **玩家意图理解** - **上下文窗口扩展**:通过**滑动窗口注意力**(Sliding Window Attention)动态保留近期对话,数学表示为: $$ \text{Context} = \{ (p_i, r_i) \}_{i=t-k}^{t} \quad (k=\text{窗口大小}) $$ 其中 $p_i$ 为玩家输入,$r_i$ 为模型响应[^1]。 - **意图分类器**:在生成前调用轻量级分类模型,识别玩家行为类型(如“战斗”“探索”),引导生成方向[^2]。 --- ### 二、故事连贯性的技术实现 #### 1. **长期记忆管理** | 技术 | 实现方式 | 作用 | |---------------------|--------------------------------------------------------------------------|-----------------------------------| | **向量数据库** | 将关键事件(如“主角杀死巨龙”)嵌入为向量,存储于FAISS/Pinecone | 快速检索历史事件[^3] | | **知识图谱** | 构建角色关系图(如“A是B的敌人”),通过图神经网络(GNN)更新状态 | 维护角色行为逻辑一致性[^1] | | **RAG检索增强** | 输入时检索相关记忆:$ \text{Prompt} += \text{TopK}(\text{sim}(q, \text{DB})) $ | 注入世界观设定避免偏离[^3] | #### 2. **情节一致性约束** - **强化学习微调(RLHF)**: - 定义奖励函数 $ R(s) = w_1 \cdot \text{逻辑分} + w_2 \cdot \text{情感分} $,由人工评估剧情合理性[^2]。 - 优化目标:$ \max_{\theta} \mathbb{E}_{s \sim \pi_\theta}[R(s)] $($\pi_\theta$为生成策略)。 - **结构化生成模板**: 强制模型按“事件-后果-分支”框架输出: ```json { "event": "玩家进入城堡", "consequence": "触发守卫战斗", "branches": ["战斗", "潜行"] } ``` --- ### 三、前沿融合方案 1. **多智能体协作框架** [^3]: - **叙事智能体**:生成主线剧情(长上下文LLaMA-2,上下文窗口 **8K**)。 - **实时交互智能体**:处理玩家输入(轻量模型,延迟 **<100ms**)。 - **记忆管理智能体**:更新知识图谱向量数据库。 2. **动态评估机制**: - 实时计算**连贯性分数**: $$ S_c = \frac{1}{N} \sum_{i=1}^{N} \text{sim}(\text{当前事件}, \text{历史事件}_i) $$ 若 $S_c < \eta$(阈值),触发剧情修正[^1]。 --- ### 四、挑战局限性 - **实时性 vs. 质量**:低延迟要求可能牺牲叙事深度(需平衡生成长度响应速度)。 - **长程依赖问题**:超出上下文窗口(如 **128K**)后,依赖检索可能遗漏隐性逻辑[^3]。 - **安全风险**:需过滤玩家恶意输入(如诱导生成违规内容),采用**内容安全分类器**拦截[^2]。 --- **典型应用案例**: - 《AI Dungeon》使用GPT-3 + 向量数据库,玩家可随时回溯历史事件以维持连贯性[^1]。 - 网易《逆水寒》手游集成LLM生成NPC对话,通过知识图谱确保角色人设一致性[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知来者逆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值