
搜索推荐
文章平均质量分 70
搜索推荐相关算法
小爷毛毛(卓寿杰)
NLP对话问答、大模型、AIGC。
微信视频号:毛毛AIGC,欢迎关注进一步交流!
展开
-
【斯坦福】【ICLR】RAPTOR:基于树结构的检索增强技术详解
上图展示了 RAPTOR 树的构建过程。从叶节点(文本块)开始,通过递归地嵌入、聚类和摘要,构建出一个多层次的树状结构。每个父节点包含其子节点的摘要,从而形成了不同抽象层次的表示。RAPTOR 的核心思想是利用文本摘要来允许在不同尺度上进行检索增强,从而有效地处理长文档。文本分割与嵌入:将检索语料库分割成短文本块(约 100 个 token),并使用 SBERT(Sentence-BERT)对这些文本块进行嵌入,形成叶节点。聚类与摘要:对嵌入后的文本块进行聚类,然后使用语言模型对每个聚类生成摘要。原创 2025-03-28 11:51:48 · 1006 阅读 · 0 评论 -
RAG技术深度解析:从基础Agent到复杂推理Deep Search的架构实践
在自然语言处理领域,传统问答系统往往面临两大难题:如何突破模型知识边界?如何保障回答的可信度?RAG(Retrieval-Augmented Generation)架构应运而生。而当我们以工程视角实现RAG时,就需要一个标准化的载体——RAG Agent。原创 2025-03-07 13:18:55 · 1094 阅读 · 0 评论 -
论文阅读:《基于深度学习的线上农产品销量预测模型研究》
ICM模型文中提出的 model- Imperial Crown Model(short for ICM)简单讲就是用自动编码器将权值初始化,然后反向传播优化模型。关于自动编码器可以参阅:http://blog.youkuaiyun.com/u011239443/article/details/76692801#t1网络结构图: 算法具体实现步骤:流程图: 个人感觉,从模型上本文就是套用了深度学习中的普通的原创 2017-09-29 16:47:46 · 2915 阅读 · 1 评论 -
LLM与搜索推荐
推荐增强的大语言模型,也就是对话推荐系统(Conversational Recommender System,简称 CRS),是一种结合了大型语言模型(Large Language Model,LLM)与传统推荐模型优势的创新架构。不过,需要注意的是,大语言模型的自然语言理解能力虽然强大,但在特定领域和复杂协同关系建模上可能不如经过专门训练的推荐模型。举个例子,KNN-LMs这个方法,它会在生成每一个新词时,查找与当前上下文最相关的几个文档,根据这些文档的信息来调整下一个词生成的概率分布。原创 2024-07-28 11:59:44 · 402 阅读 · 0 评论 -
【ACL 2022】用于多标签文本分类的对比学习增强最近邻机制
多标签文本分类(MLTC)是自然语言处理中的一项基本且具有挑战性的任务。以往的研究主要集中在学习文本表示和建模标签相关性上。然而,在预测特定文本的标签时,通常忽略了现有的类似实例中的丰富知识。为了解决这一问题,作者提出了一个k最近邻(kNN)机制,该机制检索几个相邻实例并用它们的标签值作为模型的输出。此外,作者设计了一个多标签对比学习目标,使模型学习到kNN的分类过程,并提高了在推理过程中检索到的相邻实例的质量。原创 2022-11-20 17:30:01 · 2073 阅读 · 0 评论 -
深入理解Spark ML:基于ALS矩阵分解的协同过滤算法与源码分析
http://blog.youkuaiyun.com/u011239443/article/details/51752904随着互联网的迅猛发展,为了满足人们在繁多的信息中获取自己需要内容的需求,个性化推荐应用而生。协同过滤推荐是其中运用最为成功的技术之一。其中,基于用户的最近邻法根据相似用户的评分来预测当前用户的评分。然而,在用户数量以及用户评分不足的情况下,该方法存在冷启动和数据稀疏的问题。为了解决这两个问题,业界提出了提出了基于项的最近邻法,利用项之间相似性稳定的特点可以离线计算相似性,降低了在线计算量,提高了推原创 2016-06-26 13:40:00 · 31447 阅读 · 6 评论 -
【2022 MS MARCO】【阿里】HLATR:基于混合列表感知Transformer重排的多阶段文本检索增强 ( .feat PRM:个性化的推荐重排)
论文: 《HLATR: Enhance Multi-stage Text Retrieval with Hybrid List Aware Transformer Reranking》由于数据规模和计算资源的限制,当前文本检索系统通常遵循召回-排序范式,召回和精排模型通常被实例化为我们在《【NAACL 2021】AugSBERT:用于改进成对句子评分任务的 Bi-encoder 数据增强方法》中介绍到的 Bi-Encoder 和 Cross-Encoder。虽然在检索系统中,召回和排序模型是紧密关联的,但原创 2022-09-03 17:29:14 · 942 阅读 · 0 评论 -
解读:全民K歌直播推荐算法
看上图示意,应该是每个模态embedding单独与user embedding进行相似度训练。**这样做的话,每个item就会存在3个embedding。但这种方案就忽略了不同模态之间的权重。**我想到的另外一种方案是,其实就是从每个field做emb,变成每个bit unit做emb,在实现上反而更加统一方便。就是将j维映射到i维向量的全连接神经网络。这样不同bit维的特征就能进行自由的交叉了。但这会出现的问题是:有些直播间可能不存在Song ID,需要做特征缺失处理。这里定义了所谓的KFM,其实可以。原创 2021-08-07 19:34:58 · 1196 阅读 · 0 评论 -
多任务学习——【ICLR 2020】PCGrad
最后来看看效果吧~如下图所示,图b是任务1的目标的等高线图,图c是任务2的目标等高线图。图C是使用Adam优化目标梯度更新轨迹,可以看到当下时刻两个任务梯度方向是存在冲突的。而图e使用Adam+PCGrad,可以看到目标梯度更新轨迹穿越等高线就非常顺滑了。在一系列具有挑战性的多任务监督和多任务 RL 问题上,这种方法在效率和性能方面取得了实质性的进展。具体实验结果如下图,紫色为作者的结果。在多任务学习中,由于不同任务梯度之间的更新方向不同,如上图, 我们设要求的投影向量(蓝色虚线)为。原创 2021-08-01 19:01:01 · 3044 阅读 · 0 评论 -
多任务学习——【RecSys 2020】【腾讯视频】PLE
当不同的学习任务之间较为相关时,多任务学习可以通过任务之间的信息共享,来提升学习的效率。但任务之间的相关性并不强,多任务学习可能带来负迁移(negative transfer)跷跷板现象,相关性不强的任务之间的信息共享会影响网络的表现。则是第k个任务的Experts的输出,包含了 Experts k和Experts Shared。PLE就是多层的CGC。原创 2021-07-31 21:16:37 · 440 阅读 · 0 评论 -
多任务学习——【ICML 2018】GradNorm
由于各任务在训练过程中自己的梯度量级和收敛速度也是动态变化的,所以很显然这样定值的w做并没有很好的解决问题。从上图可知,GradNorm 是以平衡的梯度作为目标,优化Grad Loss,从而动态调整各个任务的w。,可能导致有些任务还处于欠拟合,可有些任务已经过拟合了。,造成有的task在梯度反向传播中占主导地位,模型过分学习该任务而忽视其它任务。论文链接:https://arxiv.org/pdf/1711.02257.pdf。r调节着任务收敛速度:收敛速度越快,要注意的是,上式中,减号后面的项,是。原创 2021-07-25 16:18:58 · 1304 阅读 · 1 评论 -
基于位置的点击模型
主流的点击模型大都基于点击模型方面最基础的研究,认为,根据这个假设,。因此大多数的点击模型都是基于位置的构建方式(我们称作基于位置的点击模型)。另外,由于点击模型中最主要的信息来源为用户的交互信息(主要是点击信息),因此模型对于用户行为以及结果相关性的推断都来源于点击行为。因此大多数的点击模型都假设搜索页面中的所有结果是同质的(所有具有类似的形式,仅在内容上有所区别,对应到模型中即为仅在结果相关性上有所区别),在排除结果相关性影响之后这些结果对于用户的行为不构成影响。原创 2021-06-29 10:55:32 · 728 阅读 · 0 评论 -
《搜索和推荐中的深度匹配》——2.5 延伸阅读
Query重构是解决搜索中查询文档不匹配的另一种方法,即将Query转换为另一个可以进行更好匹配的Query。Query转换包括Query的拼写错误更正。例如,【1】提出了一种源渠道模型,【2】 提出了一种用于该任务的判别方法。Query转换还包括Query分段【3】【4】【5】。受统计机器翻译 (SMT) 的启发,研究人员还考虑利用翻译技术来处理Query文档不匹配问题,假设Query使用一种语言而文档使用另一种语言。【6】利用基于单词的翻译模型来执行任务。原创 2021-06-25 16:35:26 · 370 阅读 · 0 评论 -
《搜索和推荐中的深度匹配》——2.4 推荐中的潜在空间模型
接下来,我们简要介绍在潜在空间中执行匹配的代表性推荐方法,包括偏置矩阵分解 (BMF)【1】、Factored Item Similarity Model (FISM) 【2】和分解机 (FM)【3】。参阅。原创 2021-06-25 14:44:39 · 491 阅读 · 1 评论 -
《搜索和推荐中的深度匹配》——2.2 搜索和推荐中的匹配模型
接下来,我们概述搜索和推荐中的匹配模型,并介绍潜在空间中的匹配方法。原创 2021-05-28 16:39:43 · 584 阅读 · 0 评论 -
《搜索和推荐中的深度匹配》——经典匹配模型 2.1 匹配学习
最近,研究人员发现,传统的IR中的单变量评分模式是次优的,因为它无法捕获文档间的关系和本地上下文信息。与其他监督学习问题类似,我们可以将学习匹配的目标定义为最小化损失函数,该函数表示匹配函数在训练数据和测试数据上可以达到多少精度。,N是训练数据的大小。在搜索中,x上的特征可以是查询x的语义类别,y上的特征可以是PageRank分数和文档y的URL长度。的函数,其中x和y分别是查询中的查询和文档以及推荐中的用户和项目。定义的特征可以是传统IR中的BM25,也可以是传统机器学习或深度学习中学习的函数。原创 2021-05-18 15:23:51 · 1846 阅读 · 0 评论 -
深度推荐模型——BERT4Rec [CIKM 19][Alibaba]
2、BST有target item 输入,是二分类的匹配模型。1、BERT4Rec引入了BERT 预训练预测MASK Token的方式,提升了模型的泛化性。可以先参阅阿里的另外一篇论文。原创 2021-05-18 11:32:23 · 538 阅读 · 0 评论 -
图神经网络——【KDD 2019】KGAT
深度推荐算法(如DeepFM等)模型有个缺点:将训练数据里(用户交互数据)的特征进行独立建模,没有考虑到交互数据之间的关系。这使得这些模型不足以从用户的行为中提取出基于属性的协同信息。如上图:用户u1 看了电影i1 ,这个电影是 ei 导演的,传统的CF方法会着重去找那些也看了电影i1 的用户,比如u4、u5 。而监督学习方法会重点关注那些有相同属性ei 的电影,比如 i2。很显然这两类信息都可以作为推荐信息的补充,但是现有的模型不能做到上面两者信息的融合,而且这里的高阶关系也可以作为推荐信息的补充的。比原创 2021-05-17 19:04:33 · 698 阅读 · 0 评论 -
《搜索和推荐中的深度匹配》——1.5 近期进展
尽管传统的机器学习在搜索和推荐匹配方面取得了成功,但深度学习的最新进展为该领域带来了更为重大的进步,提出了许多深度匹配模型。深度学习模型的能力在于能够从原始数据(例如,文本)中学习匹配问题的分布式表示形式,避免手工制作功能的许多限制,并以端到端的方式学习表示形式和匹配网络。此外,深度神经网络具有足够的能力来对复杂的匹配任务进行建模。它们具有灵活性,可以自然地扩展到跨模式匹配,在这种模式下,可以学习通用语义空间来普遍表示不同模式的数据。所有这些特征有助于处理搜索和推荐的复杂性。原创 2021-05-17 17:26:58 · 270 阅读 · 0 评论 -
图神经网络——【SIGIR 2019】NGCF
从早期的矩阵分解到最近出现的基于深度学习的方法,现有的工作通常通过从描述用户(或项目)的现有特性(如ID和属性)映射来获得用户(或项目)的嵌入。作者认为,这种方法的一个固有缺点是,隐藏在用户-项目交互中的协作信号没有在嵌入过程中编码。因此,由此产生的嵌入可能不足以捕获协作过滤效果。作者提出了一个新的推荐框架Neural Graph Collaborative Filtering (NGCF) ,它可以在图结构中学习嵌入表示,让模型可以表达高维特征,显示地将协同过滤信号放入到嵌入过程中。原创 2021-05-17 11:56:20 · 623 阅读 · 0 评论 -
图神经网络——【KDD 2018】PinSage
可以先参阅。本文将基于GraphSAGE来讲讲PinSage。原创 2021-05-14 17:40:43 · 753 阅读 · 0 评论 -
图神经网络——【NIPS 2017】GraphSAGE
直推式(transductive)学习方法是在一个固定的图上直接学习每个节点embedding,但是大多情况图是会演化的,当网络结构改变以及新节点的出现,直推式学习需要重新训练(复杂度高且可能会导致embedding会偏移),很难落地在需要快速生成未知节点embedding的机器学习系统上。本文提出归纳学习—GraphSAGE(Graph SAmple and aggreGatE)框架,通过训练聚合节点邻居的函数(卷积层),使GCN扩展成归纳学习任务,对未知节点起到泛化作用。原创 2021-05-14 14:14:01 · 543 阅读 · 1 评论 -
《搜索和推荐中的深度匹配》——1.4 推荐匹配的挑战
不匹配的问题在推荐中更加严重。在搜索中,查询和文档由相同语言的术语组成,这使得对它们的术语进行直接匹配至少有意义。但是,在推荐中,用户和商品通常由不同类型的特征表示,例如,用户的特征可以是用户ID,年龄,收入水平和最近的行为,而商品的特征可以是商品ID,类别,价格和品牌名称。由于用户和项目的特征来自不同语义的空间,因此基于表面特征匹配的幼稚方法不适用于推荐。更具挑战性的是,这些商品可以通过多模式特征来描述,例如服装产品的图像和电影的封面图像,它们可能在影响用户的决策中起关键作用。原创 2021-05-13 15:36:33 · 283 阅读 · 0 评论 -
多任务学习——【SIGIR 2018】ESMM
由于CTR任务的训练样本量要大大超过CVR任务的训练样本量,ESMM模型中特征表示共享的机制能够使得CVR子任务也能够从只有展现没有点击的样本中学习,从而能够极大地有利于缓解训练数据稀疏性问题。点击—>转化,本身是两个强相关的连续行为,作者希望在模型结构中显示考虑这种“行为链关系”,从而可以在整个空间上进行训练及预测。在整个样本空间建模,而不像传统CVR预估模型那样只在点击样本空间建模。原创 2021-05-11 14:28:18 · 225 阅读 · 0 评论 -
多任务学习——【KDD 2018】MMoE
多任务学习的的框架广泛采用 shared-bottom 的结构,不同任务间共用底部的隐层。这种结构本质上可以减少过拟合的风险,但是效果上可能受到任务差异和数据分布带来的影响。也有一些其他结构,比如两个任务的参数不共用,但是通过对不同任务的参数增加 L2 范数的限制;和 shared-bottom 结构相比,这些模型对增加了针对任务的特定参数,在任务差异会影响公共参数的情况下对最终效果有提升。多任务模型通过学习不同任务的联系和差异,可提高每个任务的学习效率和质量。是最原始的多任务学习模型。原创 2021-05-10 19:50:19 · 310 阅读 · 0 评论 -
【网易云音乐】基于行为序列的召回&精排模型
据介绍,基于音乐知识图谱,云音乐得到不同实体之间一步两步甚至多步的关系,比如表面上看起来可能毫不相干的两个艺人,因为这两位艺人同时给同一个电视剧演唱的关系,就形成了一个关联关系。但云音乐的工程师们在实践做,发现兴趣融合门机制部分,长期兴趣的权重非常小,最终用户加权的向量表示基本只包含了短期的兴趣,而对长期的兴趣影响非常小。但个人认为,分成长期兴趣空间和短期兴趣空间,那就意味着线上serving模块需要基于2个用户的兴趣表示进行召回,也就多了两者召回比例的超参数需要调节 ==需将id分不同种类后,各自基于。原创 2021-03-27 19:35:59 · 1065 阅读 · 1 评论 -
深度推荐模型——FiBiNet[RecSys 19][Weibo]
2、传统的特征交叉方式广泛采用了内积和哈达玛积,而这两种方式在稀疏数据上很难有效对特征交叉进行建模。作者认为模型需要学习不同特征的一个重要程度,对重要特征加权,对蕴含信息量不多的特征进行削弱。原创 2021-03-13 16:42:17 · 463 阅读 · 0 评论 -
深度推荐模型——BST [KDD 19][Alibaba]
受Transformer在自然语言处理中取得巨大的效果启发,BST将应用Transformer 用于提取用户行为序列背后的隐藏信息,同时考虑序列的前后顺序,能够更好的表达用户兴趣。原创 2021-02-18 11:46:34 · 1362 阅读 · 0 评论 -
深度推荐模型——AutoInt [CIKM 19][北大]
【代码】深度推荐模型——AutoInt[CIKM19][北大]原创 2021-02-18 11:25:27 · 484 阅读 · 0 评论 -
深度推荐模型——DIEN [AAAI 19][Alibaba]
【代码】深度推荐模型——DIEN [AAAI 19][Alibaba]原创 2021-02-18 11:22:10 · 395 阅读 · 2 评论 -
深度推荐模型——DIN [KDD 18][Alibaba]
【代码】深度推荐模型——DIN [KDD 18][Alibaba]原创 2021-02-15 11:37:20 · 347 阅读 · 0 评论 -
深度推荐模型——xDeepFM [KDD 18][Microsoft]
【代码】深度推荐模型——xDeepFM [KDD 18][Microsoft]原创 2021-02-14 20:15:08 · 453 阅读 · 0 评论 -
深度推荐模型——DCN [KDD 17][Google]
【代码】深度推荐模型——DCN [KDD 17][Google]原创 2021-02-14 20:08:07 · 333 阅读 · 0 评论 -
深度推荐算法——DeepFM [IJCAI 17][Huawei]
【代码】深度推荐算法——DeepFM [IJCAI 17][Huawei]原创 2021-02-14 20:05:12 · 350 阅读 · 0 评论 -
深度推荐模型——AFM [IJCAI 17][浙大、新加坡国立大学]
【代码】深度推荐模型——AFM [IJCAI 17][浙大、新加坡国立大学]原创 2021-02-14 20:02:02 · 310 阅读 · 0 评论 -
深度推荐模型——NFM [SIGIR 17][新加坡国立大学]
【代码】深度推荐模型——NFM [SIGIR 17][新加坡国立大学]原创 2021-02-14 19:58:25 · 325 阅读 · 0 评论 -
深度推荐模型——Wide&Deep [DLRS 16][Google]
http://www.shuang0420.com/2017/03/13/%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%20-%20Wide%20and%20Deep%20Learning%20for%20Recommender%20Systems/ Google Play 用的深度神经网络推荐系统,主要思路是将 Memorization(Wide Model) ...原创 2018-08-26 13:05:47 · 567 阅读 · 0 评论 -
深度推荐模型——PNN [TOIS 16][交大]
【代码】深度推荐模型——PNN [TOIS 16][交大]原创 2021-02-14 19:52:06 · 191 阅读 · 0 评论 -
深度推荐模型——FNN [ECIR 16]
【代码】深度推荐模型——FNN [ECIR 16]原创 2021-02-14 19:46:37 · 433 阅读 · 0 评论 -
深度推荐模型——FFM
【代码】深度推荐模型——FFM。原创 2021-02-14 19:41:26 · 200 阅读 · 0 评论