Large Language Models for Travel Behavior Prediction

Cette étude démontre que les grands modèles de langage (LLM) constituent une alternative flexible et économe en données pour la prédiction du comportement des voyageurs, grâce à des stratégies de promptage zéro-shot et à l'utilisation d'embeddings textuels qui rivalisent avec les modèles classiques.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao

Publié 2026-03-12
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous essayez de prédire comment les gens vont voyager : prendront-ils le train, la voiture ou le métro ? Iront-ils travailler, faire du shopping ou voir des amis ?

Traditionnellement, les experts en transport utilisaient des formules mathématiques sèches, un peu comme un chef cuisinier qui suit une recette rigide. Il faut beaucoup d'ingrédients (des milliers de données réelles) pour que la recette fonctionne bien. Si vous n'avez que quelques ingrédients, le plat est raté.

Cet article explore une nouvelle approche : utiliser les Grands Modèles de Langage (LLM), ces intelligences artificielles qui discutent comme des humains (comme ChatGPT), pour prédire ces comportements. Les auteurs proposent deux façons de faire, que l'on peut comparer à deux méthodes différentes pour deviner le futur.

1. La méthode du "Devin Intuitif" (Zero-Shot Prompting)

Imaginez que vous avez un sage très cultivé qui a lu tous les livres du monde sur la psychologie humaine, l'économie et la géographie, mais qui n'a jamais vu vos données spécifiques.

  • Comment ça marche ? Vous lui donnez une description détaillée d'une situation (ex: "Voici un homme qui a 30 ans, il a une voiture, le train coûte 50€ et prend 2 heures, la voiture coûte 30€ et prend 1h30...").
  • Le tour de magie : Vous lui demandez simplement : "Que ferait-il ?" sans lui avoir appris à faire ce calcul spécifique au préalable.
  • Le résultat : L'IA utilise sa "culture générale" pour raisonner. Elle dit : "Ah, il économise du temps avec la voiture, donc il va probablement la prendre."
  • L'avantage : Cela fonctionne même si vous n'avez aucune donnée historique à lui donner. C'est comme demander à un expert de faire une estimation sur un nouveau pays qu'il ne connaît pas, juste en se basant sur la logique humaine.

2. La méthode du "Traducteur de Signaux" (Embeddings)

Imaginez maintenant que vous avez un traducteur secret qui transforme des histoires complexes en un code mathématique compact.

  • Comment ça marche ? Au lieu de demander à l'IA de donner la réponse directement, on lui demande de "résumer" la situation en un code invisible (un vecteur d'embeddings). Ce code capture l'essence de la situation (l'ambiance, les préférences, les contraintes) mieux que des chiffres bruts.
  • Le tour de magie : On prend ce code et on le donne à un petit modèle mathématique classique (un élève brillant mais qui a besoin d'un peu d'aide).
  • Le résultat : Même avec très peu de données d'entraînement, ce petit modèle devient très performant parce qu'il reçoit les informations "pré-digérées" et enrichies par l'IA.
  • L'avantage : C'est comme donner à un élève un résumé ultra-complet d'un livre avant l'examen, au lieu de lui donner juste le titre. Il réussit mieux, même avec peu de temps d'étude.

Ce que les chercheurs ont découvert

Les auteurs ont testé ces idées sur deux cas réels : le choix entre le train, la voiture et un futur métro (Swissmetro), et la prédiction de l'objectif d'un trajet (travail, loisirs, etc.).

  • Quand on a beaucoup de données : Les méthodes classiques (les recettes de cuisine traditionnelles) gagnent encore, mais de justesse.
  • Quand on a peu de données : C'est là que les IA brillent ! Les méthodes classiques s'effondrent (comme un château de cartes), tandis que les IA, grâce à leur "culture générale", continuent de faire de bonnes prédictions.
  • L'explication : Contrairement aux mathématiques classiques qui donnent juste un résultat ("Train"), l'IA peut vous dire pourquoi ("Il prend le train car il n'a pas de pass annuel et le temps gagné est crucial"). C'est comme si le sage vous expliquait sa logique.

Les petits défauts (Les hallucinations)

Comme tout humain, l'IA peut parfois rêver. Parfois, elle invente des faits qui ne sont pas dans la question (ex: "Il prend le train car il aime le bleu", alors que rien n'a été dit sur la couleur). Les chercheurs ont vu que si on guide bien l'IA avec des instructions claires (comme lui donner une liste de règles à suivre), elle se trompe moins. Les modèles les plus avancés (comme GPT-4) sont très robustes et résistent bien aux instructions floues.

En résumé

Cette étude nous dit que l'IA n'est pas seulement un outil pour discuter, mais qu'elle peut devenir un nouvel outil de prédiction pour les transports. Elle est particulièrement précieuse quand on manque de données, là où les méthodes traditionnelles échouent. C'est comme passer d'un calculateur scientifique rigide à un consultant humain très intelligent qui sait raisonner avec ce qu'il sait déjà.