本文是LLM系列文章,针对《Large Language Model Augmented Narrative Driven Recommendations
》的翻译。
摘要
叙述驱动推荐(NDR)提出了一个信息访问问题,用户通过详细描述自己的偏好和背景来征求推荐,例如,旅行者在描述自己的好恶和旅行环境的同时,征求兴趣点的推荐。随着搜索和推荐系统中基于自然语言的会话接口的兴起,这些要求变得越来越重要。然而,NDR缺乏丰富的模型训练数据,当前的平台通常不支持这些请求。幸运的是,经典的用户-项目交互数据集包含丰富的文本数据,例如评论,这些数据通常描述用户偏好和上下文——这可以用于NDR模型的引导训练。在这项工作中,我们探索使用大型语言模型(LLM)进行数据扩充来训练NDR模型。我们使用LLM从用户-项目交互中创作合成叙述性查询,并在合成查询和用户-项目互动数据上训练NDR的检索模型。我们的实验表明,这是一种训练小参数检索模型的有效策略,在叙事驱动的推荐中,它优于其他检索和LLM基线。
1 引言
2 相关工作
3 方法
4 实验与结果
5 结论
在本文中,我们提出了Mint,一种用于叙事驱动推荐(NDR)任务的数据增强方法。Mint通过使用175B参数的大型语言模型来编写长形式的叙述性查询,同时以用户喜欢的项目的文本为条件,为NDR重新设计历史用户-项目交互数据集。我们在公开的Pointrec测试集上评估了基于Mint数据训练的双编码器和交叉编码器模型,用于叙事驱动的兴趣点推荐。我们证明,所得到的模型优于几个强基线和消融模型,并且在一次设置中匹配或优于直接用于NDR的175B LLM。

本文介绍了一种名为Mint的方法,用于利用大型语言模型(LLM)对叙事驱动推荐(NDR)任务进行数据增强。Mint通过LLM生成合成的叙述性查询,以增强用户-项目交互数据,进而训练NDR模型。实验证明,这种方法训练的模型在NDR中表现出色,优于其他基线。然而,Mint存在对尾部兴趣和查询结构重复的局限性,未来工作将探索改进策略和更广泛应用。
已下架不支持订阅

1938

被折叠的 条评论
为什么被折叠?



