Beyond Imitation: Generating Human Mobility from Context-aware Reasoning with Large Language Models

828 篇文章

已下架不支持订阅

本文介绍了一种名为MobiGeaR的新框架,它利用大型语言模型进行情境感知推理,生成符合人类行为的移动模式。与传统方法相比,MobiGeaR在减少样本数量的同时,提高了生成数据的语义相关性和下游应用的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Beyond Imitation: Generating Human Mobility from Context-aware Reasoning with Large Language Models》的翻译。

超越模仿:利用大型语言模型从上下文感知推理生成人的流动性

摘要

人类的流动行为与各种重要的社会问题密切相关,如交通拥堵、能源消耗和流行病控制。然而,收集移动数据的成本可能高得令人望而却步,并涉及严重的隐私问题,这就迫切需要高质量的生成移动模型。先前的工作侧重于从训练样本中学习行为分布,并通过对所学习的分布进行采样来生成新的移动性数据。它们不能有效地捕捉驱动移动行为的连贯意图,导致样本效率和语义意识较低。受大型语言模型(LLM)中涌现推理能力的启发,我们提出了一个彻底的视角转变,将迁移生成重新表述为一个常识性推理问题。在本文中,我们设计了一个新的移动生成即推理(MobiGeaR)框架,该框架促使LLM递归生成移动行为。具体来说,我们设计了一种上下文感知的思想链提示技术,通过少量的上下文学习使LLM与上下文感知的移动行为相一致。此外,MobiGeaR采用了分割和协调机制来利用LLM推理与机械重力模型之间的协同效应。它利用逐步LLM推理递归生成活动意图的时间模板,然后用机械重力模型将其映射到物理位置。在两个真实世界数据集上的实验表明,MobiGeaR在所有指标上都实现了最先进的性能,同时大大减少了训练样本的大

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值