PPP:Joint Pointwise and Pairwise Image Label Prediction 解读

提出PPP框架,整合pointwise和pairwise图像标注,增强预测准确性。通过挖掘两类标签间潜在关系,构建统一双向图模型,实现图像类别、标签及属性联合预测。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

PPP:Joint Pointwise and Pairwise Image Label Prediction 是CVPR2016的一篇文章,提出将pointwise(单标签)和pairwise label (对标签)结合起来进行图像标注词的预测。本文对该文章进行翻译和解读。


摘要

摘要部分主要阐述了本文的motivation。
pointwise label和pairwise label通常被分开考虑,两者之间潜在的联系成为了本文的motivation。基于从单-对标签双向图中提取的重叠组结构,本文提出了一个全新的框架PPP(pointwise and pairwise image label prediction)。实验表明该框架取得了目前的最好结果。

1 introduction

说明:本部分不是逐字逐句翻译,结合自己的理解进行解读

绪论部分,首先解释了什么是pointwise label,什么是pairwise label。基于标签种类的不同,把有监督视觉任务分成两类——pointwise 方法和pairwise 方法。在图像标注中,pointwise 方法针对一张图片而言,判断一张图像是否有特定的标注词;而pairwise方法是判断一张图像与另一张图像对比,是否有更大或更小的可能性拥有特定标注词。如下图所示,“4 door”更适合作为一个pointwise label,因为一辆汽车是否是4门的,是一个客观而明确的事实;而“sporty”会更适合作为pairwise label,因为很难判断中间这辆车是否是运动风,但是我们可以很确定地判断出,中间这辆车比左边这两更具有运动风,比右边这辆更不具运动风。
图1
接下来,从标注的复杂度(labeling complexity)和表现力(representaional capability)说明了pointwise label和pairwise label二者的优缺点。在标注的复杂度方面,如果给定10张图片,那只需要十组pointwise labels;如果是pairwise label,至少需要45组图片对比((10*9)/2)才能得到全局的排序信息。在表现力方面,pointwise label表现了一幅图像特定内容的有或者无,pairwise label表现了同一属性的关系。但如果单独使用pairwise label会引起描述的模糊。
既然pointwise labels 和pairwise labels各有千秋,本文提出了一个发现两种labels的潜在关系并融合两种labels的框架。什么是pointwise labels 和pairwise labels的潜在关系呢?从下图可以看到,“皮leather,琥珀色cognac,绑带lake up”这些标签让左边的这只鞋子有更高的分数拥有“正式”属性;而“high heel高跟”这个标签让右边这双鞋子有更低的分数拥有“comfort舒适”这个属性。反过来,如果“formal”和“comfort”拥有更高的分数,那么有更大的可能性拥有“Oxford牛津布”,较低的可能性拥有“wingtip尖头”。目前探究pointwise labels 和pairwise labels间关系的工作还没有。
图2 通过二分图找到单标签和对标签间的关系
本文用一种统一的双向图模型去追踪pointwise labels 和pairwise labels二者的潜在关系,将这两种labels进行融合,应用到图像标注中。文章的主要贡献如下:(1)对pointwise labels 和pairwise labels的关系进行建模和数学描述;(2)提出一个新型的联合框架PPP,同时预测图像的pointwise labels 和pairwise labels;(3)用提出的PPP框架进行实验。
文章接下来的内容中,第二章阐述了问题的定义和基本的模型。第三章描述了提出的框架和优化方法,第四章是实验,第五章是总结。

2 proposed method

论文中用到的符号以及一些定义说明:

  • XRn×d
    数据集中的图像集合,n 表示图像的数量,d表示特征的数量。
  • YtRn×c1YcRn×c3
    表示pointwise label,分别表示data-tag和data-label。Y(i,j)=1表示图像 i 拥有第 j 个标签,反而则Y(i,j)=0
  • pairwise label的定义:
    假设有训练集DP表示从训练集中获取的图像对集合。在提出的框架中,给出一个基于属性q图像对<a,b>,如果yayb,则a有正属性分数y(a,q,1)=|yayb|,负属性分数y(a,q,2)=0;与此同时,b有正属性分数y(b,q,1)=0以及负属性分数y(b,q,2)=|yayb|
    因此,pairwise label定义为YrRm×c2,其中,m表示从训练样本中得到的图像对的数目,c2=2qq表示属性的数目。例如,令<a,b>是第一对图像对,pairwise labelYr(1,2(q1)+1)表示yayb的程度,而Yr(1,2(q1)+2)表示yayb的程度。

2.1 Baseline models

在提出的框架中,pointwise label用于分类和标注任务。对于分类,假设有一个线性分类器WcRd×c3,作用于X得到pointwise label矩阵Yc=XWc,则:

minWcΩ(Wc)+L(Wc,Yc,D)(1)
其中,L()是一个损失函数,Ω是一个防止过拟合的正则化函数,D是训练样本集。这里对L使用最小二乘法。
对于标签标注,同样假设有一个线性分类器WtRd×c1,作用于X得到pointwise label矩阵Yt=XWc,则:
minWtΩ(Wt)+L(Wt,Yc,D)(2)

对于基于pairwise label的方法,一个简单有效的方案就是Rank SVM,该方法用一个预测函数作用于一组未知的数据,目的是以尽量小的损失学习得到一个模型W。与RankSVM类似,在我们的框架中,训练样本扩展到候选pairs集合,学习过程用的是pairwise特征向量,如下:
minWL(W,Yr,P)+Ω(Wr)(3)
此处,P是训练对集合。损失函数L基于pairwise差异向量 x 定义:
L(W,Yr,P)=((a,ya,qa),(b,yb,qb))Pl(t(yayb),f(w,ab))(4)
其中,转换函数t(y)转换标签的差异性。在我们的框架中,转换函数定义为t(y)=sign(y)
注意,我们虽然可以通过把上面的各个目标函数直接相加得到一个统一的模型,但是这样一个模型中各个部分本质上还是独立的(虽然我们通过权重在他们之间进行了权衡),因为各个部分之间并没有明确的关系。

2.2 探索pointwise和pairwise标签间的关系

在上文中,我们利用pointwise label和pairwise label定义了三种任务。探究pointwise label和pairwise label间的关系有利于我们找到一个同时融合类别,标注词和排序的联合框架。

注:这里,一张图的信息包含类别labels(一个大的类别),标签tags(图像的客观特征),属性attribute(图像的主观特征)

首先,属性和标签的关系描述为二分图,如下图所示。假设BRc2×c1是图的邻接矩阵,B(i,j)=1表示第i个标签和第j个标签共同出现在一张图中,反而则B(i,j)=0。在本文中,我们不考虑标签和属性的共生频率,这个留到以后的一个工作中。从二分图中,我们可以确认,在同一组中的标签和属性有着相同的性能特征比如语义。对于同一个组,一个特征X(:,i)要不跟其相关,要不跟其不相关。例如,Wr(i,j)表示第i个特征预测得到第j个属性的影响,而Wt(i,k)表示第i个特征预测得到第k个属性的影响。因此,我们在WtWi上加约束,这个约束从二分图的组信息中得到,可以捕捉到属性和标签间的关系。

注:这里属性和标签与pointwise label和pairwise label的关系如下:标签用pointwise label可以表达出来,而属性需要用pairwise label表达

图2 通过二分图找到单标签和对标签间的关系

我们可以应用任何社区探测算法去确认二分图中的组。本文中我们使用一个非常简单的方法从二分图中提取组——对于第j个属性,我们认为在二分图中与该属性连接起来的那些标签就是一个组。由于一个标签可能和若干个属性连接,所以可能会出现重叠。假设G是从属性-标签二分图中提取到的组的集合,最小化下面的式子以得到属性和标签间的关系:

ΩG(Wt,r)=i=1dgGαg||wig||2(5)
其中,Wt,r=[Wt,Wr]αg是衡量组gwig是连接{Wt,r(i,j)}jg的向量的可信度。例如,如果g={1,5,9}wig=[Wt,r(i,1),Wt,r(i,5),Wt,r(i,9)],接下来看看公式(5)的内在含义。对于一个特定的组gdi=1||wig||2相当于对g=[w1g,w2g,...,wdg]增加l1约束,||g||1。这保证了关于g的稀疏解,换句话说,g的一些元素会是0。如果gi=0或者||w2g||2=0,那么第i个特征对属性和标签的影响就同时消除了。
类似地,我们建立二分图去发现属性和类别间的潜在关系。文献[21]指出,标签和类别的共生关系夜莺考虑。因此,我们建立了一个混合的二分图来提取间类别,标签和属性的组信息。组正则化ΩG2(Wt,r,c)跟公式(5)类似,描述见图2,一个标签或者属性如果和类别联合互相联合,那他们就连在一起。注意,从图2提取的一个组,可能包含一个类别,一组属性和一组标签。

2.3 提出的框架

通过应用二分图,提出的框架相当于解决下面的优化问题:

minW L(Wc,Yc,D)+L(Wt,Yt,D)+L(Wr,Yr,DP)+λ(||Wc||2F+||Wt||2F+||Wr||2F)+αΩG2(Wt,r)+βΩG2(Wt,r,c)(6)
公式(6)中,前六项来自基础的预测类别,标签,排序(属性)的模型,第7项和第8项是追踪输出的重叠结构,分别由α,β控制。组正则化定义如下:
ΩG(Z)=iG||Zg||2=i=1dgG||zig||2(7)

3 PPP的优化方法

因为组结构有重叠,所以直接求解目标函数很困难,我们用ADMM方法优化这个目标函数。首先,我们介绍两个辅助变量P=[Wt,Wr]M1Q=[Wt,Wr,Wc]M2M1{0,1}(c1+c2)×c2(c1+c2)被定义为:如果第i个标签连接第j个属性则M1(i,(c1+c2)(j1)+i)=1,否则为0。M2{0,1}(c1+c2+c3)×c3(c1+c2+c3)的定义和M2类似。通过这两个变量,解决W的重叠组套索问题(group lasso)就变成了分别解决PQ的非重叠组套索问题。因此,优化函数变成:

minW,P,Q L(Wc,D)+L(Wt,D)+L(Wr,D)+αΩG(P)+βΩG2(Q)+λ(||Wc||2F+||Wt||2F+||Wr||2F)s.t.P=[Wt,Wr]M1;Q=[Wt,Wr,Wc]M2;(8)

上式可以用下面的ADMM问题解决:
minW,P,Q L(Wc,Yc,D)+L(Wt,Yt,D)+L(Wr,Yr,D)+λ(||Wc||2F+||Wt||2F+||Wr||2F)+αΩG(P)+βΩG2(Q)+Λ1,P[Wt,Wr]M1+Λ2,Q[Wt,Wr,Wc]M2+μ2P[Wt,Wr]M12F+μ2Q[Wt,Wr,Wc]M22F(9)
其中,Λ是拉格朗日乗法子,μP=[Wt,Wr]M1Q=[Wt,Wr,Wc]M2相等约束的惩罚。损失函数L有很多种选择,这里选的是最小二乘损失函数。
接下来是用ADMM的解法去解决这个目标函数。

接下来的优化内容,语言上理解不难,主要是数学上的理解。翻译不是很必要,不再翻译该部分的内容。步骤大概是:
3.1 更新W
3.2 更新P
3.3 更新Q
3.4 更新Λ1,Λ2,μ


最后的算法如下:
输入:XDRN×dXPRm×d和相关标签Yt,Yc,Yr
输出:每个实例的c1标签,c2c3类别
1、初始化随机样本训练集D和从训练集D中随机提取的图像对集P
2、设置μ=103,ρ=1.1,μmax=108,并得到M1,M2
3、预计算特征分解
4、重复
5、计算W˜t,W˜c,W˜r
6、分别通过公式(16)(21)(18)更新Wt,Wc,Wr
7、计算ZP,ZQ
8、更新P,Q
9、更新Λ1,Λ2,μ
10、直到收敛
11、用XW的最大池化测试,预测标签,相关关系和类别


接下来是
3.5 收敛性分析
3.6 时间复杂度分析

4 实验

介绍了数据库和对比算法之后,分两部分进行实验,一部分针对pointwise label,一部分针对pairwise label。实验表现,应用pointwise label和pairwise label间的关系,对两种标签的预测都是有利的

<think>我们之前已经详细讨论了pointwisepairwise、listwise三种方法以及对应的评估指标(NDCG,MAP,MRR)。现在用户的问题聚焦于:如何用这些指标(NDCG,MAP,MRR)来评估三种模型的训练效果。注意,用户特别引用了三段内容,其中提到:-引用[1]:Listwise方法直接针对整体序列和评价指标(如MAP,NDCG)进行优化。-引用[2]:NDCG和MAP等指标包含位置信息,但不平滑不连续,无法直接求梯度。-引用[3]:可以通过重新定义来扩展出NDCG-likemetrics的LambdaLoss(暗示Listwise方法如LambdaRank/LambdaMART通过近似梯度来优化这些指标)。因此,回答需要紧扣:1.如何计算NDCG,MAP,MRR来评估模型效果(这是通用流程,与模型类型无关)。2.针对pointwise,pairwise,listwise三种模型,使用这些指标时有什么注意事项和差异。3.训练过程中如何利用这些指标(例如:早停、调参)以及它们与模型优化目标的关系。回答结构建议:1.**评估指标计算通用流程**:简要说明NDCG,MAP,MRR的计算方法(但不用重复之前回答的细节,可引用之前回答),强调它们都是按query计算再平均。2.**如何用于评估三种模型**:-Pointwise:虽然模型优化的是单个文档的相关性(如回归MSE或分类交叉熵),但最终评估必须将模型对每个query下的所有文档打分,然后按分数排序得到列表,再用NDCG/MAP/MRR评估这个列表的质量。注意:pointwise模型的训练目标与这些指标可能不一致[^1]。-Pairwise:模型优化文档对的相对顺序(如RankNet的交叉熵)。评估时同样需要生成整个排序列表(用模型给文档打分再排序),然后用NDCG等评估。但需注意pairwise损失与NDCG可能负相关的问题[^2]。-Listwise:模型直接优化整个列表的损失函数(如LambdaRank优化NDCG的近似梯度)。评估时同样生成列表后用NDCG等,但这里的评估指标与训练目标更一致。3.**训练过程中的使用**:-验证集上监控NDCG/MAP/MRR:无论哪种模型,训练时都应在验证集上计算这些指标,用于早停(防止过拟合)和模型选择(因为这是最终目标)。-与训练目标的关系:pointwisepairwise模型的训练目标(如MSE,pairwiseloss)与NDCG等可能相关性弱,因此验证集NDCG是更可靠的评价标准;listwise模型(如LambdaMART)的训练目标近似NDCG,所以训练损失下降通常意味着NDCG提升。4.**注意事项**:-指标不可导问题:pointwise/pairwise模型训练时无法直接优化NDCG(因其不可导),而listwise模型通过设计可导的代理损失(如LambdaLoss)来解决[^3]。-位置偏差:NDCG/MAP/MRR都考虑位置,因此评估时模型必须输出完整的排序列表(不能只输出分数而不排序)。最后,生成相关问题。</think>### 如何使用NDCG、MAP、MRR评估Pointwise/Pairwise/Listwise模型训练效果 #### 1. **评估指标通用计算流程** 无论模型类型如何,NDCG、MAP、MRR的计算都遵循以下通用流程: 1. **模型输出处理**: 对每个查询(Query),模型为所有候选文档生成**相关性分数** → 按分数降序排列生成**预测排序列表** *示例:* 模型输出文档得分:`[doc1: 0.9, doc2: 0.7, doc3: 0.5]` → 排序列表:`[doc1, doc2, doc3]` 2. **对比真实标签**: 将预测排序列表与**人工标注的真实相关性**(如分级标签:0/1/2/3 或 相关/不相关)对比 3. **指标计算**: - **NDCG@k**:计算前k位文档的折损累积增益(考虑位置折扣)[^2] $$NDCG@k = \frac{DCG@k}{IDCG@k}, \quad DCG@k = \sum_{i=1}^{k} \frac{2^{rel_i}-1}{\log_2(i+1)}$$ - **MAP**:计算所有相关文档的平均精度(仅适用二值相关性) $$AP = \frac{\sum_{k} (P@k \times rel_k)}{\text{相关文档数}}, \quad MAP = \frac{1}{|Q|}\sum_{q} AP_q$$ - **MRR**:取第一个相关文档排名的倒数 $$MRR = \frac{1}{|Q|} \sum_{q} \frac{1}{\text{rank}_q}$$ 4. **跨查询平均**: 对所有测试集查询的指标值取平均,得到最终评估结果 --- ### 2. **不同模型类型的评估策略与注意事项** #### ▶ Pointwise模型(如线性回归、SVM分类) - **训练目标**:直接预测文档相关性(回归分数或分类标签)[^1] - **评估特点**: - ✅ 可计算传统指标(如MSE/Accuracy),但**必须补充NDCG/MAP** *原因:* 高Accuracy可能对应低质量排序(如所有文档预测为"相关"但顺序错误) - ⚠️ **排序列表需显式生成**:将文档得分排序后转为列表再计算NDCG等 - 📊 **典型结果**: - 在特征工程强大时NDCG较高 - 常出现 **"分数准确但排序混乱"**(如相关文档分高但未排前位) #### ▶ Pairwise模型(如RankNet、RankSVM) - **训练目标**:优化文档对的相对顺序(如交叉熵损失)[^1] - **评估特点**: - ⚠️ **警惕指标背离**:Pairwise Accuracy ↑ 但 NDCG ↓(因忽略位置权重)[^2] *案例:* 模型将最相关文档从第1位错排到第2位 → Pairwise Acc影响小,但NDCG显著下降 - ✅ **必须跨查询归一化**:不同查询的文档对数量差异大,需加权平均NDCG - 📊 **典型结果**: - 对头部排序敏感,NDCG@5常优于Pointwise - MRR提升明显(因侧重前序文档对) #### ▶ Listwise模型(如LambdaMART、ListNet) - **训练目标**:直接优化排序列表(如NDCG近似梯度)[^3] - **评估特点**: - ✅ **天然适配Listwise指标**:训练损失与NDCG强相关(如LambdaRank的λ梯度) *机制:* 通过可导代理函数逼近NDCG(如 $ \nabla \text{Loss} \approx -\nabla \text{NDCG} $)[^3] - 🚀 **高效优化**:验证集NDCG可直接指导早停(训练损失↓ → NDCG↑) - 📊 **典型结果**: - NDCG@10显著优于前两类模型 - 在MAP/MRR上表现稳定(因整体排序质量高) --- ### 3. **训练过程中的实操建议** 1. **验证集监控**: - 所有模型都应**每epoch计算验证集NDCG/MAP** - Listwise模型可额外监控训练损失(因与NDCG关联强) 2. **早停策略**: | 模型类型 | 推荐早停依据 | 原因说明 | |-------------|--------------------------|----------------------------| | Pointwise | 验证集NDCG@10不再提升 | 传统损失与排序质量脱节 | | Pairwise | 验证集NDCG@5 + MRR联合判断 | 避免Pairwise Acc的误导性 | | Listwise | 训练损失 + 验证NDCG@k | 两者强相关,防过拟合 | 3. **超参数调优**: - 统一使用**NDCG@10作为优化目标**(因综合位置与分级相关性) - 对Pointwise/Pairwise模型:尝试**Listwise微调**(如Pairwise预训练 → Listwise微调) 4. **结果解读**: - **NDCG差距 > 0.05**:模型有本质改进(工业界显著差异阈值) - **MAP vs NDCG**:二值相关性用MAP,多级相关性用NDCG - **MRR异常高**:检查是否存在单一主导相关文档(适合问答场景) > **关键结论**:无论模型类型如何,**NDCG/MAP/MRR都是最终效果的黄金标准**。Pointwise/Pairwise模型需通过排序列表转换评估,而Listwise模型天然对齐这些指标[^1][^3]。 --- ### 评估流程示意图 ```mermaid graph LR A[模型训练] --> B{模型类型} B -->|Pointwise| C[文档得分预测] B -->|Pairwise| D[文档对顺序优化] B -->|Listwise| E[列表排序优化] C & D & E --> F[按得分生成排序列表] F --> G[计算NDCG/MAP/MRR] G --> H[跨查询平均] H --> I[最终评估报告] ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值