- 博客(5)
- 收藏
- 关注
原创 DCMQ实验记录
Deep Cross Modal QuantizationProblem FormulationMethodExperimentsMSCOCO 1k Problem Formulation 本文采用的数据集(MSCOCO, Flickr30k)由图像文本对组成,input={xik, xtk, k=1…N}, 数据集的划分也只有train set和valid set两种。在训练过程中,对与输入的文本对,我们通过现有的SOTA模型提取出两个模态输入在common space的特征,接着采用DPQ量化器对这些
2020-12-16 21:55:30
543
原创 Quantization Papers
Quantization Papers1. Beyond Product Quantization: Deep Progressive Quantization for Image Retrieval2. End-to-End Supervised Product Quantization for Image Search and Retrieval3. Collective Deep Quantization for Efficient Cross-Modal Retrieval 1. Beyond Pr
2020-11-27 16:04:41
300
原创 Fast Cross-Modal Retrieval
Survey on Fast Cross-Modal Retrieval BackgroundProblem DefinitionDatasetEvaluationPapers1. CVPR 2017 DCMH "Deep Cross-Modal Hashing"IntroductionPipelineNovelty & ContributionImprovement Point2. CVPR 2018 SSAH "Self-Supervised Adversarial Hashing Netwo
2020-11-07 23:54:55
448
原创 Cross-Modal Retrieval
@[TOC]Paper with notes on Cross-Modal Retrieval Background 这里研究的跨模态检索主要是图像-文本匹配(Image-Text Matching)。跨模态检索模型的输入是两种模态信息(图片和句子),输出是他们的相似度。继而利用模型在一堆图片/句子中挑出与待查询句子/图片最匹配的结果。因此评价指标也通常有Text-Retrieval 和 Image Retrieval两个方面。跨模态检索后的结果为图1所示。 Mainstream Methods SOT
2020-10-19 10:37:34
1749
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人