最近,视觉语言模型(VLM)在图文检索任务中大放异彩,但大家有没有发现,它们有时候会有点“跑偏”?模型可能过于关注图片里的背景、或者文本中一些非常通用的词汇,而忽略了那些真正能区分细节的关键信息。CV君今天和大家分享一篇来自ACMMM 2025的最新研究,由中国科学院、哈尔滨工业大学(深圳)、西南交通大学和腾讯的研究者们共同完成。
他们提出了一个名为 CalibCLIP 的即插即用、无需训练的校准方法,专门解决VLM中的“主导语义”问题,让图文检索更精准。CalibCLIP这个名字也很有意思,可以理解为“校准版的CLIP (Calibrated CLIP)”,直指其核心功能。

- 论文标题: CalibCLIP: Contextual Calibration of Dominant Semantics for Text-Driven Image Retrieval
- 作者: Bin Kang, Bin Chen, Junjie Wang, Yulin Li, Junzhi Zhao, Junle Wang, Zhuotao Tian
- 机构: 中国科学院, 中国科学院大学, 哈尔滨工业大学(深圳), 西南交通大学, 腾讯
- 论文地址: https://arxiv.org/abs/2510.05586
- 代码仓库: https://github.com/kangbin98/CalibCLIP
- 录用信息: ACMMM 2025 (Oral)
“注意力跑偏”的老大难问题
现有的视觉语言模型,如我们熟知的CLIP,在进行图文匹配时,依赖于一个全局语义的对齐。模型会将图片和文本分别编码成一个全局特征向量,然后计算它们的相似度。问题在于,这个“全局特征”的生成过程并不完美。
研究者发现,无论是图片还是文本,总有那么一小部分“贡献低”的Token(可以理解为图片中的小块或文本中的词语)会不成比例地占据主导地位,过度捕获全局语义,从而抑制了那些真正具有辨别力的关键特征。
在视觉上,模型可能过度关注背景等低信息区域;在文本上,则可能过度依赖像“teddy”和“bear”这样的通用概念词,而当这些词被遮盖后,对其他更具辨识度词语的注意力才显著提升。

下面的注意力图也直观展示了这一点:基线模型(CLIP)的注意力(CLS Token)分散在很多无关区域,而CalibCLIP则能更准确地聚焦到任务相关的主体上。

这种现象导致模型在面对高度相似的样本时,区分能力会下降。
CalibCLIP:双管齐下的校准策略
为了解决这个问题,作者提出了 CalibCLIP 框架,它是一个无需训练的即插即用模块,从视觉和文本两个空间进行“校准”。

其核心思想可以分为两个部分:
1. 视觉空间:对比视觉增强器 (Contrastive Visual Enhancer, CVE)
CVE的目标是抑制视觉特征中的“主导”噪声。它分为三步:
- 视觉空间解耦:首先,利用文本查询作为参考,将图像特征解耦为“目标区域”和“低信息区域”(如背景)。
- 主导Token定位:在低信息区域中,通过评估自注意力和局部注意力偏差,识别出那些异常活跃、具有主导性的视觉Token。
- 上下文自适应特征修正:动态地抑制这些主导Token的表示,同时保持特征图的空间一致性,从而让模型的注意力重新聚焦到真正的目标上。
2. 文本空间:辨识性概念校准器 (Discriminative Concept Calibrator, DCC)
DCC则专注于解决文本中的语义主导问题。
- 文本子空间分解:它将文本概念分解为“通用属性”(如“衣服”、“动物”)和“辨识性属性”(如“条纹纹理”、“奔跑动作”)。
- 自适应语义调制:通过一种自适应的掩码策略,减弱通用概念的权重,从而放大辨识性概念的影响力。
- 基于辨识性相似度的推理:最后,在计算图文相似度时,除了传统的全局相似度,还额外引入了一个基于辨识性特征的相似度计算,使得模型能更好地捕捉细节差异。
实验效果:全面且显著的提升
CalibCLIP的有效性在三大类图文检索任务、七个公开基准数据集上得到了验证,可以说是取得了全面胜利。

- 基于文本的行人检索 (TBPR) :在CUHK-PEDES等三个数据集上,CalibCLIP带来了显著的性能提升。例如,在CUHK-PEDES上,R@1指标从未经调优的73.54%提升到了 76.72%。

- 文本到图像检索 (TIR) :在经典的Flickr30K和MSCOCO数据集上,CalibCLIP同样表现出色,平均Rank@k提升了 1.25% 到 1.63%。

- 组合图像检索 (CIR) :在更复杂的CIRR和FashionIQ任务上,CalibCLIP依然稳定提升,在CIRR上相对最先进的方法提升了 2.07%,在FashionIQ上也平均提升了 1.77%。

消融实验也证明了CVE和DCC两个模块各自的有效性,二者结合能达到最佳效果。


CV君认为,这项工作最吸引人的地方在于它的“无需训练”特性。这意味着它可以作为一个轻量级的“补丁”,直接应用到现有的VLM上,而不需要耗费大量计算资源进行重新训练,具有很强的实用价值和泛化能力。
如何学习大模型 AI ?
我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

2025最新大模型学习路线
明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
大模型经典PDF书籍
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

配套大模型项目实战
所有视频教程所涉及的实战项目和项目源码等

博主介绍+AI项目案例集锦
MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。


这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

为什么要学习大模型?
2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

适合人群
- 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
- IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
- IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
- 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。

课程精彩瞬间
大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。
RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
顶尖师资,深耕AI大模型前沿技术
实战专家亲授,让你少走弯路

一对一学习规划,职业生涯指导
- 真实商业项目实训
- 大厂绿色直通车
人才库优秀学员参与真实商业项目实训
以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调
大厂绿色直通车,冲击行业高薪岗位
文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】







18万+

被折叠的 条评论
为什么被折叠?



