- 博客(487)
- 收藏
- 关注
原创 心法利器[135] | 五千字聊算法工程师的成长反思(答读者问)
心法利器本栏目主要和大家一起讨论近期自己学习的心得和体会。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。2024年新的文章合集已经发布,获取方式看这里:再添近20万字-CS的陋室2024年文章合集更新,更有历史文章合集,欢迎下载。往期回顾心法利器[130] | RAG效果调优经验心法利器[131] | 盘点踩过大模型多轮对话的坑心法利器[132] | 大模型系统性能优化trick心法利器[133] | 为什么我的大模型效果不好心法利器[134] | 算法工作6年经验分享:把活干得漂亮前几条做了一个问题
2025-06-15 21:01:18
337
转载 提问收集-0612
看看大家有什么问题有兴趣的,可以在评论区里提问,12日,就是今天,晚上我基本都会在线,在这个评论区里提问互动,部分比较大的问题我会在后面的文章里进行总结回复。我可以给一些思路,对最近的学习、工作、技术、生活、职场有什么想法,心态是什么样的之类的,包括最近的一些技术迭代变化,另外这个时间点挺多话题的,高考、毕业季、校招等,都可以聊聊。好久没做答读者问的环节了,本来计划是在每年的工作感想里怎么加这个环节,结果没收集问题,这次补一波,和大家展开来聊聊。祝大家学习工作顺利!
2025-06-12 20:58:36
6
原创 前沿重器[66] | 美团搜索广告召回迭代实践启示
有个发现,此处语义向量召回似乎一直没有作为很核心的主流,更多是考虑生成式了,超短句的语义向量质量其实是一般的,作者更多的工作放在了个性化+语义合并,然后做推理(无论是生成式还是后续的DS,甚至前面的几万token预测),相当于语义在这里更像一个特征,而非直接的训练目标。今天给大家介绍的是美团的一篇讲搜索广告召回的迭代思路,这个召回的历史比较悠久,经历了多个版本的迭代,通过这篇文章的阅读能感受到各个版本技术的优劣势,也能感受到各种相关技术的变迁,还包含了大量比较深刻的业务理解,收获还挺大的。
2025-06-08 21:01:12
1005
原创 前沿重器[65] | 大模型评判能力综述
,反复强调很多次,很多的问题就暴露在bad case里面,上面有提到评价任务的标准需要反复探究,就来源于此,早期我们并不能很好地理解一些任务,例如“关键词抽取”之类的任务,关键词的概念很模糊,只有看的足够多,逐步明确边界,才能知道何为关键,再者,我们人类的理解要对齐,我们和大模型的理解,也需要达成一致。在论文中,有提到纵向的步骤拆分和横向的分维度拆分,是有必要的,实验表明,对一些比较客观的文本生成任务,分维度能让大模型的额评价更加客观完整,单一的评价任务可能会存在一些倾向性,拆分能约束模型思考。
2025-06-02 21:01:17
520
原创 心法利器[134] | 算法工作6年经验分享:把活干得漂亮
心法利器本栏目主要和大家一起讨论近期自己学习的心得和体会。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。2024年新的文章合集已经发布,获取方式看这里:再添近20万字-CS的陋室2024年文章合集更新,更有历史文章合集,欢迎下载。往期回顾心法利器[129] | deepseek-R1自测效果分析和选择建议心法利器[130] | RAG效果调优经验心法利器[131] | 盘点踩过大模型多轮对话的坑心法利器[132] | 大模型系统性能优化trick心法利器[133] | 为什么我的大模型效果不好转眼又到
2025-05-25 21:00:48
754
原创 前沿重器[64] | 阿里妈妈URM大模型:基于LLM的通用推荐新方案
在文本生成的过程,一般的自回归模式很容易产生物料库内没有的内容,而且自回归的推理成本和时间也比较高,因此文中直接生成目标文本和目标物料两者,而且考虑到文本和物料两者的空间存在冲突,所以此处采用特殊的标签"[UM]"和"[LM]"来区分,有两个关键的输出头,一个是用户建模的输出头,将最终结果转为用户的嵌入,一个是语言头,允许模型进行文本生成的训练。这里特别提出一个有意思的问题,就是搜索和推荐的差异,搜索是有明确的查询需求的,但是推荐没有,这两个任务之间的差异很明显,本就难以兼容。
2025-05-18 21:00:55
424
原创 前沿重器[63] | SIGIR25-个性化实时检索增强机器人主动对话能力
论文内没有什么公式,更多是思路的介绍和应用思路,初看可能会觉得论文的内容比较随意,但这些思路我自己的感觉还是挺有启发的,另外有一些方案细节,按照作者的意思基本是参考了一些论文的实践建议,给了不少参考文献,下文的关键部分,我也会列举一部分,有兴趣的读者也可以按需阅读。这个意图体系,显然和常见的不同,这里分的是3个,自然过渡、显式检索、隐式检索,是个根据下游的策略区别来区分的,而这个下游的区分,是结合实际业务需求的差异来分析得到的,这块的设计应该是有很多业务上的数据分析积累得到的。
2025-05-11 21:00:34
1125
原创 心法利器[133] | 为什么我的大模型效果不好
,效果提升的两个核心原因,新的有效信息和更好的信息处理模式,和上述的现象也是非常匹配的。随着业务迭代、信息更新,大模型肯定是需要更新的,对大功能、新功能级别的大更新,我们可以通过微调、调整prompt之类的模式来更新,但是如果是一两条说法,一两个bad case,次数比较频繁,显然微调模型的性价比低,敏捷度也不足,prompt也无法做很细节的雕刻,但是这类似的问题是数据库的优势,通过类似RAG之类的方式能快速解决这个问题,只要这个问题不解决,RAG类似的技术应该都不至于被淘汰。业务问题的边界界定。
2025-05-05 21:01:06
720
原创 前沿重器[62] | 综述解读:大模型在搜索推荐中的应用
搜索和推荐是长期备受关注的焦点领域,在大模型出来后,自然也开始了大量的尝试,而且大模型的尝试也开始突破原有的一些应用范式,原有常见的一些技术架构和思路也在被撼动,最近看到一篇相关的综述论文,重点讲解了最近大模型所催生出的“生成式”范式在推荐和搜索中的应用。有关文档和物料的更新。在进行训练后,给定输入模型总能输出一些文档或者物料的id,然而在实际应用中,文档和物料的更新是极为快速的,未遇到的、新的内容,总很难很快更新到模型里,当然,这也是目前各种以深度学习为基础的模型所有的毛病。对大模型的输入长度。
2025-04-20 21:03:35
750
原创 前沿重器[61] | Agentic RAG综述解读
进一步,有一种神奇的体验,因为阅历和经历的积累,其实已经积累了不少技术,而在后续看到很多新的东西后,发现里面有挺多内容都是之前已经玩过的,而经过新的包装和组合,能够达到更加优秀的结果,尤其是思想上的,例如同样是意图识别,现在仍旧是有必要使用的,思想层面可以理解为“拆分”的分治思想,将场景细分后专门处理,能有效提升各自的效果,这种模式逐步做好能提升整个系统最终的效果。具备任务或角色定义的大模型。翻译:https://zhuanlan.zhihu.com/p/1893616563510288868。
2025-04-13 21:02:14
585
转载 再添近20万字-CS的陋室2024年文章合集更新
叉烧,CS的陋室博主,资深算法工程师,主攻搜索、对话、NLP方向。文章合集2023以来的文章,时间覆盖23年10月至25年1月的文章,因为25年1月的文章是对24年的总结,因此也被收录,包括“前沿重器”和“心法利器”。心法利器系列专注于技术和个人思考,讲的东西属于自己探究型,分享自己的经验。”,可以获得所有文章合集的链接。”,可以获得22年的文章合集。”,可以获得23年的文章合集。”,可以获得24年的文章合集。
2025-04-06 21:00:33
43
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
35
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
19
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
15
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
10
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
14
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
26
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
16
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
24
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
18
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
23
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
13
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
19
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
14
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
26
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
23
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
18
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
17
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
10
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
8
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
9
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
19
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
12
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
13
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
10
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
15
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
9
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
16
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
11
转载 前沿重器[60] | RecSys24:LLMs知识增强推荐系统(上交&;华为)
信息差主要是,大模型在训练阶段,应该已经吸收了很多经典物料的特性,例如《罗马假日》这种作品,大模型了解的会比较多,因此描述的会比较好,但是新的作品类似《哪吒之魔童闹海》则只能依赖prompt中的提示,可能效果会比较差甚至会被《哪吒之魔童降世》影响。借助大模型对特定场景的关键因素进行抽取和规范化,文章中给出的例子是电影推荐场景,会问大模型:“列出决定用户是否对电影感兴趣的重要的因素或特征”,用这个方式即可规范后续用户偏好的描述维度,以便大模型进行更加有效的分析。用户偏好推理和物料事实描述。
2025-03-30 21:00:05
11
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人