自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(496)
  • 收藏
  • 关注

原创 前沿重器[73] | 深入技术深水区:RAG与Agent如何实现精准个性化

然而,感觉对个性化的剖析和应用还是比较粗,举几个例子吧,个性化的前提是画像,画像信息的不同类型,如数值、个人信息、行为等,直接联系任务和非直接联系任务(举例,类似性别、年龄就是距离目标很远的画像信息,喜欢电脑、喜欢看动漫就是距离任务很近的画像信息),不同信息的利用价值和使用方法都有很大差异。预检索阶段主要就是改写和拓展,改写是指通过对原始query的更新,提升检索效果,常见的就是纠错消歧、加入上下文之类的,拓展则是通过提供额外的信息对搜索query进行信息的扩充,其实某种程度上和改写也有些概念上的交集。

2025-08-17 21:00:22 914

转载 【招聘】平安科技-算法社招

熟练掌握nlp基础理论和算法,在一个或多个领域(如文本分类、情绪识别、语义理解、信息抽取、舆情挖掘等),能够独立开展研发工作。负责海量业务文本数据的分析和挖掘,包括话术质量检测、风险识别、对话摘要、关键内容提取、热点挖掘、语义理解与搜索、对话生成等。在国际顶级会议、期刊上发表论文经验者优先;有多模态内容理解、大数据、文本挖掘、推荐搜索、对话等方向经验者优先。有多模态内容理解、大数据、文本挖掘、推荐搜索、对话等方向经验者优先。熟练掌握机器学习的基础理论与算法,在推荐、搜索、对话等领域,能够独立开展研发工作。

2025-08-12 07:19:26 13

原创 前沿重器[72] ​大模型“外脑”揭秘:Context Engineering综述

有关记忆模块的质量,已经有一些评估方面的研究工作了,即回答“什么样的记忆模块是好的记忆模块”这样一个问题,例如用准确性方案来评估记忆系统对历史的记忆准确度,用recall@5来评估召回的记忆是否为所需,还有耗时、生效时间等应用层面的指标,另外也有很多特定的任务,定制来分析参考系统的记忆能力,例如LongMemEval考虑信息提取、时间推理、多会话推理、知识更新和弃权共5个维度的质量。比较统一的方法论,对一个系统的评估可以划分为两块,一个是局部,一个是整体。类似搜索的速度慢,这个反而是小头。

2025-08-10 21:01:20 610

原创 前沿重器[71] Context Engineering深度解读:范式跃迁,还是概念包装

在智能体内,我们一般都希望大模型能处理各种信息,完成好我们交给他的任务,从前面的任务拆解路由,到后续执行、汇总和回复,而随着任务的逐渐复杂,大模型需要经历的步骤也会变多,这个变多势必也会让下游的任务的Prompt变得非常长(这里已经改口叫上下文窗口了),众所周知,尽管目前大模型能够吃下很长的文本,但并不代表长文本就能具有较好的效果,而且实验发现,长文本对大模型的影响是非常严重的,存在断崖式的下降,经过总结,目前主要是这4个原因。尤其是当信息足够多,更新足够频繁的时候,一个系统内引入RAG是非常有效的。

2025-07-27 21:00:48 941

原创 前沿重器[70] | Query优化前沿综述:核心方法解读与个人实战启示

,里面有个突出的特点——query拓展,通过多个角度的拓展,一方面能让搜索的匹配程度得到提升,另一方面能让搜索引擎找到更多有关这个话题的内容,从而提升最终结果的可靠性,在本期文章中,将给大家介绍一篇query优化的综述,为大家拓宽思路,了解query优化方面的有关技术,让大家在应用过程中能有更多有用的选择。query拓展旨在捕捉更广泛的相关信息,可以揭示原始查询中未曾显现的关联,这一过程包括分析初始查询、识别关键概念,并融入相关术语、同义词或关联想法,以构建一个新的查询,从而实现更全面的搜索。

2025-07-20 21:01:00 571

原创 前沿重器[69] | 源码拆解:deepSearcher动态子查询+循环搜索优化RAG流程

这个prompt的模板是这样的,内容相对比较常规,就是给好指令、query、路由的描述即可,这点在这个类型的项目内,即路由个数比较少的场景下,还是可以的,但是次数比较多,会因为prompt过场而导致决策质量出现差错,目前我看比较常见的策略是向量召回(以搜代分)+大模型的模式(PS:某种程度,这也算一种RAG?为了应对多次搜索的要求,整个项目内是采用了python的协程工具,看代码时,一般的搜索都是这么写的,这个就是python的协程,有兴趣的大家可以了解了解,对性能提升,CPU使用率都有好处。

2025-07-13 21:01:02 1079

原创 心法利器[136] | 算法开荒:大模型版本下高效应对碎片化需求的实战指南

我自己是已经经常用了,一些必要的分类问题,在少样本的情况下,向量召回能保证比较高的准确,同时还有比较高的准确性,如果类目还比较多而且比较杂,那更加合适,大模型一般很难吃下这么多的类目,而且性能也比较好,一些互联网环境,大模型可能适应不来,此时以搜代分的就比较可靠了,再者,最近的qwen3-embedding系列,对prompt的支持测下来还是不错的,非常建议尝试。不过要注意,时刻抱着怀疑的态度,一个是大模型搜到的东西可能和上面网上找到的类似,同时大模型也有幻觉,所以注意甄别。

2025-07-06 21:00:45 648

原创 前沿重器[68] | 北邮腾讯MemoryOS:分层记忆模式解决大模型长记忆问题(下)

这里也可以看出整个项目的简单,openai是请求大模型的组件,numpy、sentence-transformers是做一些基础计算和向量模型,faiss-gpu是单机向量召回组件,flask则是服务化的工具(不过,在现在最新版的项目下,用的是MCP,flask在项目里目前是没用上的)。实例,贯穿所有部分来作为所有信息的储存器,作为开源项目做demo是完全够用的,但作为工程项目其实是比较粗糙的,很多内容这里都是维护在本地,健壮性、稳定性、安全性都是不足的,如果要优化,有如下建议。

2025-06-29 21:00:35 782

原创 前沿重器[67] | 北邮腾讯MemoryOS:分层记忆模式解决大模型长记忆问题(上)

这篇论文的思路我挺欣赏的,具有较强的使用参考意义,能记忆通过可解释的方式进行拆解,并进行分别处理,这对很多需要多轮对话、深入了解用户信息才能回复的场景,都具有很强的价值,同时也具有很好的可拓展性,整个记忆模块的信息除了可以来源于对话,还可以来源于外界,在LPM中可以快速增补,例如一些对话式推荐的场景,可以加入用户的历史购买记录等,另外,信息的筛选思路也比较朴素,可以作为一个比较强的baseline了。在这篇文章里,作者给出的同样是一套完整的方案,这里的关键词是,分层存储和动态更新。热度的评价公式如下。

2025-06-22 21:01:01 984

原创 心法利器[135] | 五千字聊算法工程师的成长反思(答读者问)

心法利器本栏目主要和大家一起讨论近期自己学习的心得和体会。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。2024年新的文章合集已经发布,获取方式看这里:再添近20万字-CS的陋室2024年文章合集更新,更有历史文章合集,欢迎下载。往期回顾心法利器[130] | RAG效果调优经验心法利器[131] | 盘点踩过大模型多轮对话的坑心法利器[132] | 大模型系统性能优化trick心法利器[133] | 为什么我的大模型效果不好心法利器[134] | 算法工作6年经验分享:把活干得漂亮前几条做了一个问题

2025-06-15 21:01:18 667

转载 提问收集-0612

看看大家有什么问题有兴趣的,可以在评论区里提问,12日,就是今天,晚上我基本都会在线,在这个评论区里提问互动,部分比较大的问题我会在后面的文章里进行总结回复。我可以给一些思路,对最近的学习、工作、技术、生活、职场有什么想法,心态是什么样的之类的,包括最近的一些技术迭代变化,另外这个时间点挺多话题的,高考、毕业季、校招等,都可以聊聊。好久没做答读者问的环节了,本来计划是在每年的工作感想里怎么加这个环节,结果没收集问题,这次补一波,和大家展开来聊聊。祝大家学习工作顺利!

2025-06-12 20:58:36 17

原创 前沿重器[66] | 美团搜索广告召回迭代实践启示

有个发现,此处语义向量召回似乎一直没有作为很核心的主流,更多是考虑生成式了,超短句的语义向量质量其实是一般的,作者更多的工作放在了个性化+语义合并,然后做推理(无论是生成式还是后续的DS,甚至前面的几万token预测),相当于语义在这里更像一个特征,而非直接的训练目标。今天给大家介绍的是美团的一篇讲搜索广告召回的迭代思路,这个召回的历史比较悠久,经历了多个版本的迭代,通过这篇文章的阅读能感受到各个版本技术的优劣势,也能感受到各种相关技术的变迁,还包含了大量比较深刻的业务理解,收获还挺大的。

2025-06-08 21:01:12 1048

原创 前沿重器[65] | 大模型评判能力综述

,反复强调很多次,很多的问题就暴露在bad case里面,上面有提到评价任务的标准需要反复探究,就来源于此,早期我们并不能很好地理解一些任务,例如“关键词抽取”之类的任务,关键词的概念很模糊,只有看的足够多,逐步明确边界,才能知道何为关键,再者,我们人类的理解要对齐,我们和大模型的理解,也需要达成一致。在论文中,有提到纵向的步骤拆分和横向的分维度拆分,是有必要的,实验表明,对一些比较客观的文本生成任务,分维度能让大模型的额评价更加客观完整,单一的评价任务可能会存在一些倾向性,拆分能约束模型思考。

2025-06-02 21:01:17 542

原创 心法利器[134] | 算法工作6年经验分享:把活干得漂亮

心法利器本栏目主要和大家一起讨论近期自己学习的心得和体会。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。2024年新的文章合集已经发布,获取方式看这里:再添近20万字-CS的陋室2024年文章合集更新,更有历史文章合集,欢迎下载。往期回顾心法利器[129] | deepseek-R1自测效果分析和选择建议心法利器[130] | RAG效果调优经验心法利器[131] | 盘点踩过大模型多轮对话的坑心法利器[132] | 大模型系统性能优化trick心法利器[133] | 为什么我的大模型效果不好转眼又到

2025-05-25 21:00:48 765

原创 前沿重器[64] | 阿里妈妈URM大模型:基于LLM的通用推荐新方案

在文本生成的过程,一般的自回归模式很容易产生物料库内没有的内容,而且自回归的推理成本和时间也比较高,因此文中直接生成目标文本和目标物料两者,而且考虑到文本和物料两者的空间存在冲突,所以此处采用特殊的标签"[UM]"和"[LM]"来区分,有两个关键的输出头,一个是用户建模的输出头,将最终结果转为用户的嵌入,一个是语言头,允许模型进行文本生成的训练。这里特别提出一个有意思的问题,就是搜索和推荐的差异,搜索是有明确的查询需求的,但是推荐没有,这两个任务之间的差异很明显,本就难以兼容。

2025-05-18 21:00:55 525

原创 前沿重器[63] | SIGIR25-个性化实时检索增强机器人主动对话能力

论文内没有什么公式,更多是思路的介绍和应用思路,初看可能会觉得论文的内容比较随意,但这些思路我自己的感觉还是挺有启发的,另外有一些方案细节,按照作者的意思基本是参考了一些论文的实践建议,给了不少参考文献,下文的关键部分,我也会列举一部分,有兴趣的读者也可以按需阅读。这个意图体系,显然和常见的不同,这里分的是3个,自然过渡、显式检索、隐式检索,是个根据下游的策略区别来区分的,而这个下游的区分,是结合实际业务需求的差异来分析得到的,这块的设计应该是有很多业务上的数据分析积累得到的。

2025-05-11 21:00:34 1155

原创 心法利器[133] | 为什么我的大模型效果不好

,效果提升的两个核心原因,新的有效信息和更好的信息处理模式,和上述的现象也是非常匹配的。随着业务迭代、信息更新,大模型肯定是需要更新的,对大功能、新功能级别的大更新,我们可以通过微调、调整prompt之类的模式来更新,但是如果是一两条说法,一两个bad case,次数比较频繁,显然微调模型的性价比低,敏捷度也不足,prompt也无法做很细节的雕刻,但是这类似的问题是数据库的优势,通过类似RAG之类的方式能快速解决这个问题,只要这个问题不解决,RAG类似的技术应该都不至于被淘汰。业务问题的边界界定。

2025-05-05 21:01:06 757

原创 前沿重器[62] | 综述解读:大模型在搜索推荐中的应用

搜索和推荐是长期备受关注的焦点领域,在大模型出来后,自然也开始了大量的尝试,而且大模型的尝试也开始突破原有的一些应用范式,原有常见的一些技术架构和思路也在被撼动,最近看到一篇相关的综述论文,重点讲解了最近大模型所催生出的“生成式”范式在推荐和搜索中的应用。有关文档和物料的更新。在进行训练后,给定输入模型总能输出一些文档或者物料的id,然而在实际应用中,文档和物料的更新是极为快速的,未遇到的、新的内容,总很难很快更新到模型里,当然,这也是目前各种以深度学习为基础的模型所有的毛病。对大模型的输入长度。

2025-04-20 21:03:35 804

原创 前沿重器[61] | Agentic RAG综述解读

进一步,有一种神奇的体验,因为阅历和经历的积累,其实已经积累了不少技术,而在后续看到很多新的东西后,发现里面有挺多内容都是之前已经玩过的,而经过新的包装和组合,能够达到更加优秀的结果,尤其是思想上的,例如同样是意图识别,现在仍旧是有必要使用的,思想层面可以理解为“拆分”的分治思想,将场景细分后专门处理,能有效提升各自的效果,这种模式逐步做好能提升整个系统最终的效果。具备任务或角色定义的大模型。翻译:https://zhuanlan.zhihu.com/p/1893616563510288868。

2025-04-13 21:02:14 616

转载 再添近20万字-CS的陋室2024年文章合集更新

叉烧,CS的陋室博主,资深算法工程师,主攻搜索、对话、NLP方向。文章合集2023以来的文章,时间覆盖23年10月至25年1月的文章,因为25年1月的文章是对24年的总结,因此也被收录,包括“前沿重器”和“心法利器”。心法利器系列专注于技术和个人思考,讲的东西属于自己探究型,分享自己的经验。”,可以获得所有文章合集的链接。”,可以获得22年的文章合集。”,可以获得23年的文章合集。”,可以获得24年的文章合集。

2025-04-06 21:00:33 53

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 46

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 31

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 24

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 21

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 23

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 37

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 26

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 39

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 38

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 33

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 24

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 28

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 21

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 38

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 26

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 32

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 29

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 23

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 16

转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&华为)

信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。

2025-03-30 21:00:05 20

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除