跨模态图文检索:浅谈SPGCM

《Group-Invariant Cross-Modal Subspace Learning》(2016 IJCAI)

研究背景与动机

大多数的跨模态检索方法严重依赖语义标签,而获取语义标签通常都非常昂贵且耗时。因此,作者在这篇文章中提出了一个新的无监督方法SPGCM。这是一个基于子空间的跨模态检索方法,用来发现无监督跨模态学习的最优公共子空间。

方法

具体来说,这篇文章的方法是,通过余弦相似度度量,将类聚类项转化为类CCA(典型相关分析)项,从而得到一个广义的CCA模型。当样本之间的潜在聚类指标相同时,组间对应最大。通过发现潜在的公共子空间,并将数据聚类投影在这个公共子空间中,来学习不同模态的子空间映射。

如图所示,先用CCA将内容相同的异构数据组成对(pair),再构造一个损失函数:
包括pairwise和groupwise所涉及的损失,然后设置一个由经验得到的迭代次数T,在循环更新T次后,得到最终的映射函数。

实验

一共在两个带标签的数据集上进行了实验。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值