Visual Prompt Tuning

本文介绍了一种名为视觉提示调整(VPT)的技术,它通过在输入空间中注入少量可学习参数来适应大型预训练视觉转换器模型。VPT使模型在下游任务训练时保持主干冻结,只更新提示参数和线性头。该方法有两种实施方式:一种是在每个变压器-编码器层的输入预先设置一组可学习的参数(VPT-deep),另一种是仅将提示参数插入第一层的输入(VPT-shallow)。

我们提出视觉提示调整(VPT)来适应大型预先训练的视觉转换器模型。VPT将少量可学习的参数注入transformers的输入空间,并在下游训练阶段保持主干冻结。整体框架如图

(a)为每个变压器-编码器层的输入(VPT-deep)预先设置一组可学习的参数;

(b) 仅将提示参数插入第一层的输入(VPTshallow)。

在下游任务的培训过程中,只有提示和线性头的参数会更新,而整个变压器编码器会被冻结。

### 关于视觉-语言提示调优与知识引导的上下文优化的研究 #### KgCoOp的关键思想 KgCoOp旨在通过减少可学习提示和人工提示之间的差异来缓解对一般文本知识的遗忘。这种方法确保在不放弃原有知识的前提下,使模型保持与普遍知识的一致性[^1]。 #### 方法概述 具体而言,在CLIP和CoOp框架下,尽管视觉编码器φ和预训练的文本编码器θ均处于冻结状态,但不同于CLIP采用固定的提示方式,CoOp专注于推断适合特定任务需求的提示以增强其适用性和区分度。而KgCoOp进一步发展了这一理念,强调利用已有的广泛类别层面的文字资料作为基础来进行调整优化工作[^2]。 #### 文本知识嵌入的应用 为了提升这些可学习提示的表现——即它们既能广泛应用又能精准识别目标对象的能力——研究人员开发出了名为TKE的技术方案。这项技术能够把描述各类事物特征的信息转化为计算机易于处理的形式,并将其同之前已经过训练得到的结果结合起来,从而创造出既具有针对性又富含背景含义的新颖表达形式。实验结果显示这种做法确实有助于改善系统的性能表现[^3]。 ```python def text_knowledge_embedding(class_description, pretrained_class_token): """ Converts class-level textual embeddings into task-specific prompts using TKE. Args: class_description (str): Description of the class to be converted. pretrained_class_token (Tensor): Pretrained token associated with the class. Returns: Tensor: Task-specific prompt embedding. """ # Convert description to embedding class_embedding = convert_to_embedding(class_description) # Combine with pretrained token combined_embedding = combine_embeddings(pretrained_class_token, class_embedding) return combined_embedding ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值