LuvLife
这个作者很懒,什么都没留下…
展开
-
Mutual Prompt Leaning for Vision Language Models
V-L预训练模型包括文本和视觉两个子分支,现有的提示学习方法主要分为提示学习和提示学习。最近的文本提示学习方法通过设计包含文本和图像领域知识的,取得了良好的性能。然而,由于语义融合的粒度不同,在每个文本提示token中不加区别地添加全局图像信息会导致。鉴于此,我们提出了一种fine-grained text prompt (FTP),它将图像的整体信息分解成更细粒度的语义,并将它们合并到相应的tokens中。另一方面,目前的视觉提示学习往往是基于随机初始化或基于图像条件的,忽略了文本的语义信息。我们。原创 2023-08-17 16:12:17 · 41 阅读 · 0 评论 -
Multimodality Helps Unimodality:Cross-Modal Few-Shot Learning with Multimodal Models
Multimodality Helps Unimodality:Cross-Modal Few-Shot Learning with Multimodal Models原创 2024-02-21 18:04:36 · 426 阅读 · 0 评论 -
DePT_Decoupled Prompt Tuning
DePT: Decoupled Prompt Tuning原创 2023-09-21 22:29:36 · 225 阅读 · 0 评论 -
DeFo: Learning to Decompose Visual Features with Latent Textual Prompts
论文信息:arxiv:Motivation像 CLIP 这样的预训练视觉语言模型的在学习可迁移视觉表征方面的巨大潜力。但对于下游任务,CLIP 模型在通过进行推理时,会出现以下问题:1、在基于检索的推理过程中,如果文本描述不准确,准确性和鲁棒性会下降(对文本描述敏感):这种敏感性可以通过修改类名来观察,比如对于 CIFAR-10 上的 zero-shot 推理,当使用原始类名时,CLIP 获得了 63.7% 的准确率。原创 2023-09-14 23:43:54 · 295 阅读 · 0 评论 -
MaPLe: Multi-modal Prompt Learning
MaPLe: Multi-modal Prompt Learning原创 2023-08-01 00:23:01 · 354 阅读 · 0 评论 -
Patch-Mix Transformer for Unsupervised Domain Adaptation: A GamePerspective
Patch-Mix Transformer for Unsupervised Domain Adaptation: A GamePerspective原创 2023-06-29 23:41:42 · 522 阅读 · 0 评论 -
Task-Oriented Multi-Modal Mutual Leaning for Vision-Language Models
Task-Oriented Multi-Modal Mutual Leaning for Vision-Language Models原创 2023-05-21 21:27:33 · 285 阅读 · 2 评论 -
CoCoOp: Conditional Prompt Learning for Vision-Language Models
Conditional Prompt Learning for Vision-Language Models原创 2023-05-18 22:22:17 · 3007 阅读 · 3 评论 -
CoOp: Learning to Prompt for Vision-Language Models
Learning to Prompt for Vision-Language Models原创 2023-05-08 21:40:37 · 369 阅读 · 0 评论 -
Decorate the Newcomers: Visual Domain Prompt for Continual Test Time Adaptation
Decorate the Newcomers: Visual Domain Prompt for Continual Test Time Adaptation原创 2023-03-28 16:40:00 · 853 阅读 · 1 评论 -
Domain Adaptation via Prompt Learning
Domain Adaptation via Prompt Learning原创 2023-03-06 21:24:12 · 714 阅读 · 0 评论