1. 目标
训出一个统一的embedding模型LLM-Embedder,旨在全面支持LLM在各种场景中的检索增强
2. 模型的四个关键检索能力
- knowledge:解决knowledge-intensive任务
- memory:解决long-context modeling
- example:解决in-context learning(上下文学习)
- tool:解决tool learning
3. 要解决的问题
- 嵌入模型必须优化其对LLM的最终检索增强影响,而不是仅仅关注中间检索结果
- 不同的检索任务旨在捕捉不同的语义关系,它们的影响可能受到相互干扰
4. base model
是在BAAI/bge-base-en的基础上训练的
5. 训练数据
- Question Answering
LLM-Embedder是一个训练目标为支持大语言模型检索增强的统一embedding模型,强调知识、长期上下文、上下文学习和工具学习四个关键能力。模型基于BAAI/bge-base-en,使用多种任务和数据集进行训练,如问答、指令调整、生成等。训练中应用了 Reward from LLM、Instruction-based Fine-Tuning、Homogeneous In-Batch Negative Sampling 和 Stabilized Distillation 等技术,以优化检索增强效果并稳定训练过程。
订阅专栏 解锁全文
1567

被折叠的 条评论
为什么被折叠?



