我爱计算机视觉 | ACL 2024 | 剑桥大学团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

本文来源公众号“我爱计算机视觉”,仅用于学术分享,侵权删,干货满满。

原文链接:ACL 2024 | 剑桥大学团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

本篇分享 ACL 2024 论文PreFLMR: Scaling Up Fine-Grained Late-Interaction Multi-modal Retrievers,由剑桥大学团队开源,赋能多模态大模型 RAG 应用,首个预训练通用多模态后期交互知识检索器。

  • 论文链接:https://arxiv.org/abs/2402.08327

  • 项目主页:https://preflmr.github.io/

简介

PreFLMR模型是一个通用的预训练多模态知识检索器,可用于搭建多模态RAG应用。模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值