DynVLA: Learning World Dynamics for Action Reasoning in Autonomous Driving

Le papier présente DynVLA, un modèle de conduite VLA qui améliore la prise de décision autonome en introduisant un nouveau paradigme de « chaîne de pensée » basé sur la dynamique (Dynamics CoT), permettant de prédire de manière compacte et interprétable l'évolution du monde avant de générer des actions.

Shuyao Shang, Bing Zhan, Yunfei Yan, Yuqi Wang, Yingyan Li, Yasong An, Xiaoman Wang, Jierui Liu, Lu Hou, Lue Fan, Zhaoxiang Zhang, Tieniu Tan2026-03-12💻 cs

Excess demand in public transportation systems: The case of Pittsburgh's Port Authority

Cette étude propose un cadre méthodologique combinant l'identification d'instances de demande excédentaire et un modèle de régression de Poisson filtré pour estimer la demande non satisfaite dans les systèmes de transport public, en appliquant cette approche aux données de la Port Authority de Pittsburgh pour corriger les biais liés aux données censurées.

Tianfang Ma, Robizon Khubulashvili, Sera Linardi, Konstantinos Pelechrinis2026-03-11💻 cs

Implicit Biases in Refereeing: Lessons from NBA Referees

Cette étude réexamine les biais implicites dans le arbitrage de la NBA en utilisant des données de jeu et des rapports des deux dernières minutes, révélant un avantage significatif pour les équipes à domicile (atténué depuis la pandémie) et des préférences individuelles pour certains joueurs, tout en ne trouvant aucune preuve de biais racial ou de défaveur envers des équipes ou des joueurs spécifiques.

Konstantinos Pelechrinis2026-03-11💻 cs

BOPIM: Bayesian Optimization for influence maximization on temporal networks

Cet article présente BOPIM, une méthode d'optimisation bayésienne conçue pour résoudre le problème de maximisation de l'influence sur des réseaux temporels en surmontant les défis liés à l'espace combinatoire via des noyaux adaptés et une fonction d'acquisition optimisée, offrant ainsi des performances supérieures en vitesse et en précision par rapport aux méthodes existantes tout en permettant pour la première fois de quantifier l'incertitude des ensembles de nœuds sémences optimaux.

Eric Yanchenko2026-03-11💻 cs

Robustness Over Time: Understanding Adversarial Examples' Effectiveness on Longitudinal Versions of Large Language Models

Cette étude longitudinale révèle que les mises à jour successives des grands modèles de langage (GPT, Llama, Qwen) n'améliorent pas systématiquement leur robustesse face aux exemples adverses (erreurs de classification, jailbreaks et hallucinations), montrant parfois même une dégradation des performances malgré des améliorations ciblées.

Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang Zhang2026-03-11💻 cs