Large Language Models for Travel Behavior Prediction

该研究提出了两种利用大语言模型进行出行行为预测的框架(零样本提示与文本嵌入结合传统模型),实证结果表明其性能可媲美甚至超越传统数值模型,为出行需求管理提供了灵活且数据高效的替代方案。

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao

发布于 2026-03-12
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在探讨**“如何教一个超级聪明的‘语言天才’去预测人们出门会怎么坐车、去哪里玩”**。

传统的交通预测方法,就像是一个**“老练的统计学家”**。它需要看成千上万张过去的出行记录表格(数据),通过复杂的数学公式来总结规律。如果数据不够多,这位统计学家就会犯迷糊,预测不准。

而这篇论文提出,我们可以试试用**“大语言模型(LLM)”(比如 ChatGPT 这类 AI)来干这件事。这些 AI 就像是一个“读过万卷书、见过世面的博学家”**,它们不需要看具体的表格,而是靠“理解”和“推理”来做预测。

作者设计了两种让这位“博学家”工作的方法:

方法一:直接提问法(零样本提示)

比喻:就像你直接问一位经验丰富的老导游。

  • 怎么做: 你不需要给 AI 看任何历史数据,也不需要专门训练它。你只需要像聊天一样,把具体的情况告诉它。
    • 比如:“张三是个上班族,平时不坐火车,也没买年票。现在有三个选择:火车(慢但便宜)、汽车(中等)、瑞士地铁(超快但稍贵)。你觉得他会选哪个?”
  • AI 的反应: AI 会利用它脑子里的常识(比如“上班族通常赶时间”、“没年票的人可能不会首选火车”)直接给出答案,并且还能解释为什么(“因为时间省了 60%,对他来说比省那点钱更重要”)。
  • 效果: 即使没有看过任何数据,它的预测能力竟然和那些训练了很久的传统数学模型差不多,甚至在某些情况下更厉害!

方法二:提取“智慧精华”法(嵌入向量)

比喻:就像把导游的“直觉”提炼成一张“能力卡片”,交给新手去用。

  • 怎么做: 当数据很少(比如只有 10 个人的记录)时,传统模型学不会。这时候,我们先把这 10 个人的情况描述成文字,让大语言模型读一遍,然后让模型把这段文字转化成一组**“数字密码”**(Embedding)。这组密码里包含了 AI 对这段文字深层含义的理解(比如“这个人很赶时间”、“这个人喜欢省钱”)。
  • 后续: 把这组“数字密码”交给一个简单的数学模型(比如随机森林),让它来学习。
  • 效果: 这就像是给新手统计学家配了一位“超级大脑”当顾问。结果发现,在数据很少的情况下,这种“AI 辅助”的方法比传统方法准得多。

实验结果:谁赢了?

作者用真实的出行数据(比如瑞士的地铁选择、美国的出行目的)做了测试:

  1. 数据很多时: 传统的“统计学家”(数学模型)还是最强的,毕竟它们是在海量数据上“死记硬背”出来的。
  2. 数据很少时: 传统的“统计学家”就崩了,预测得很烂。但**“博学家”(大语言模型)** 依然表现得很稳,甚至能打败那些训练数据很少的传统模型。
  3. 可解释性(最大的亮点): 传统的模型只会给你一个冷冰冰的"60% 概率选火车”,但大语言模型会告诉你**“为什么”**。
    • 它可能会说:“虽然火车便宜,但这个人平时不坐,而且这次时间太紧,所以选地铁更合理。”
    • 这让规划者能听懂 AI 的逻辑,但也发现了 AI 偶尔会**“胡说八道”(幻觉)**,比如编造一些输入里根本没有的信息。

总结与启示

这篇论文告诉我们,大语言模型是交通预测领域的一个新玩家,而且是个很有潜力的选手。

  • 它的优势: 不需要大量数据就能干活,还能像人一样“讲道理”(解释原因),特别适合那些数据收集困难的新场景。
  • 它的挑战: 偶尔会犯迷糊(幻觉),而且怎么“提问”(提示词设计)很关键。就像你问一个聪明人问题,问法不同,答案质量也不同。

一句话总结: 以前我们靠“数数”来预测交通,现在我们可以试着靠“理解”和“推理”来预测。虽然这位“博学家”偶尔会犯傻,但在数据稀缺的时候,它绝对是我们的得力助手。