Cross-Modal Retrieval in the Cooking Context:Learning Semantic Text-Image Embeddings

本文介绍了一篇关于跨模态检索的研究论文,该研究提出了基于图像和文本输入的互检索方法,并通过实验验证了其有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这是 ACM SIGIR2018的一篇做cross-modal retrieval的文章,paper链接 https://arxiv.org/pdf/1804.11146.pdf,作者是巴黎第六大学的PHD,作者的homepage http://webia.lip6.fr/~carvalho/static/home/,code暂时没有被released出来。
文章要做的事情(recipe retreival):
输入:image(sentence)+dataset      输出:sentence(image) rank list
文章中show出来的实验结果如下所示。
example_caption
与state-of-the-art比较的实验结果如下所示。
comparision with SOTA
method
文章的framework如下所示。
framework
文章中的三个点:

  • image与ingredients和instructions concatenation。
  • image与ingredients。
  • 在训练的过程中采用adaptive strategy,主要思想就是对统计两个triplet loss中不为0的值得个数,然后分别用这个triplet loss除以统计的个数(对triplet loss取平均),实验结果表明这种方法效果比较好。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值