Large Language Models for Travel Behavior Prediction

Este estudo demonstra que os Grandes Modelos de Linguagem (LLMs) podem ser aplicados eficazmente à previsão de comportamento de viagem através de estratégias de *zero-shot* e de incorporação de texto, oferecendo uma alternativa flexível e eficiente em termos de dados com desempenho competitivo em relação aos modelos tradicionais.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao

Publicado 2026-03-12
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um planejador de trânsito tentando adivinhar como as pessoas vão se locomover amanhã: elas vão de carro, de trem ou de metrô? Tradicionalmente, para fazer essa previsão, os especialistas usavam "planilhas de números" frias e matemáticas complexas, analisando dados históricos como se estivessem montando um quebra-cabeça estatístico.

Mas e se, em vez de apenas olhar números, você pudesse conversar com um super-inteligente que leu quase tudo o que existe na internet? É exatamente isso que este estudo propõe.

Aqui está a explicação do artigo, traduzida para o nosso dia a dia:

🚀 A Ideia Principal: O "Detetive" de Viagem

Os autores do estudo testaram se os Modelos de Linguagem Grandes (LLMs) — como o ChatGPT — podem prever o comportamento de viagem das pessoas. Eles não queriam apenas calcular números; queriam ver se a máquina conseguia "pensar" como um ser humano, entendendo o contexto, o custo e o tempo.

Eles criaram dois jeitos diferentes de usar essa inteligência artificial:

1. O "Mágico" (Zero-Shot / Sem Treinamento)

Imagine que você tem um detetive muito inteligente que nunca viu os dados da sua cidade, mas leu milhões de livros sobre como as pessoas agem.

  • Como funciona: Você simplesmente escreve uma carta (chamada de prompt) para o detetive: "Olá, aqui estão os detalhes: o trem leva 2 horas e custa 50 reais, o carro leva 1 hora e custa 30 reais. O passageiro é uma pessoa que odeia esperar. O que ele escolhe?"
  • O resultado: O detetive usa seu conhecimento geral do mundo para responder na hora, sem precisar estudar os dados da sua cidade antes.
  • A descoberta: Surpreendentemente, esse "detetive" conseguiu adivinhar tão bem quanto (e às vezes melhor que) os modelos matemáticos tradicionais, mesmo sem ter visto nenhum dado de treinamento!

2. O "Tradutor" (Embeddings / Pequenas Amostras)

Agora, imagine que você tem um pouco de dados, mas não o suficiente para treinar um modelo tradicional (que precisa de milhares de exemplos para aprender).

  • Como funciona: Você usa o LLM não para dar a resposta final, mas para traduzir a situação. O LLM lê a descrição da viagem e a transforma em um "código secreto" (um vetor matemático) que captura a essência da situação.
  • O resultado: Você pega esse "código secreto" e entrega para um modelo matemático simples. É como se o LLM fosse um tradutor que transforma uma história complexa em uma linguagem que a matemática entende perfeitamente.
  • A descoberta: Quando os dados são escassos (poucos exemplos), essa combinação funciona muito melhor do que tentar fazer a matemática sozinha.

🧠 O Que Eles Descobriram?

  • Quando há muitos dados: Os modelos tradicionais (como planilhas avançadas) ainda são os campeões de precisão. Eles são como atletas de elite treinados por anos.
  • Quando há poucos dados: É aqui que a mágica acontece. Os modelos tradicionais falham miseravelmente (como um atleta que esquece tudo se não tiver treino recente), mas o LLM continua funcionando bem, pois ele já "sabe" como as pessoas agem pelo que leu no mundo todo.
  • A Vantagem Extra (Explicação): Diferente de uma calculadora que só dá o número "X", o LLM explica o porquê.
    • Exemplo: Se o LLM diz "A pessoa vai de metrô", ele adiciona: "Porque ela economiza 2 horas de viagem, mesmo pagando um pouco mais."
    • O Perigo: Às vezes, o LLM alucina. Ele pode inventar uma razão que não existe (como dizer que a pessoa gosta de tempo, quando o texto não dizia nada sobre isso). É preciso ter cuidado e checar a lógica.

🛠️ O Segredo do Sucesso: O "Prompt" (O Pedido)

O estudo mostrou que a forma como você pede a informação é crucial.

  • Se você apenas jogar os números soltos, o LLM pode errar.
  • Se você estruturar o pedido como uma história, dando dicas de raciocínio (ex: "Lembre-se: pessoas que têm passaporte anual preferem trem"), o LLM se torna muito mais preciso. É como dar instruções claras para um cozinheiro: se você disser "salgue o sal", o prato fica ruim; se disser "salgue levemente", fica perfeito.

🏁 Conclusão Simples

Este estudo nos diz que a Inteligência Artificial generativa não é apenas um "bobo falante". Ela é uma ferramenta poderosa para prever como as pessoas se movem, especialmente quando não temos muitos dados históricos.

Ela funciona como um consultor experiente que, mesmo sem ter visto o seu caso específico, consegue dar uma resposta muito boa baseada na sua experiência de vida. No futuro, em vez de apenas calcular rotas, poderemos conversar com nossos sistemas de transporte para entender por que as pessoas escolhem o que escolhem, tornando o planejamento de cidades mais humano e inteligente.