It is not always greener on the other side: Greenery perception across demographics and personalities in multiple cities

Questo studio analizza le discrepanze tra la percezione soggettiva e la misurazione oggettiva del verde urbano in cinque paesi, rivelando che, sebbene i dati demografici e la personalità non influenzino significativamente la percezione, il luogo di residenza dell'individuo è il fattore determinante che modella come le persone osservano il verde nelle città.

Matias Quintana, Fangqi Liu, Jussi Torkko, Youlong Gu, Xiucheng Liang, Yujun Hou, Koichi Ito, Yihan Zhu, Mahmoud Abdelrahman, Tuuli Toivonen, Yi Lu, Filip Biljecki2026-03-10💻 cs

VOIC: Visible-Occluded Integrated Guidance for 3D Semantic Scene Completion

Il paper presenta VOIC, un nuovo framework a doppio decodificatore che risolve il problema della diluizione delle caratteristiche nella completazione semantica di scene 3D da singola immagine separando esplicitamente la percezione delle regioni visibili dal ragionamento sulle regioni occluse, ottenendo così prestazioni state-of-the-art sui benchmark SemanticKITTI e SSCBench-KITTI360.

Zaidao Han, Risa Higashita, Jiang Liu2026-03-10💻 cs

Cost Trade-offs of Reasoning and Non-Reasoning Large Language Models in Text-to-SQL

Questo studio dimostra che, nel contesto delle query Text-to-SQL su Google BigQuery, i modelli di ragionamento offrono un'efficienza dei costi superiore rispetto ai modelli non di ragionamento, poiché riducono significativamente il consumo di dati mantenendo un'accuratezza equivalente, mentre evidenzia che l'ottimizzazione della velocità non garantisce l'efficienza economica a causa di una debole correlazione tra tempo di esecuzione e costi cloud.

Saurabh Deochake, Debajyoti Mukhopadhyay2026-03-10💻 cs

DrivingGen: A Comprehensive Benchmark for Generative Video World Models in Autonomous Driving

Il paper presenta DrivingGen, il primo benchmark completo per i modelli di mondo generativi nella guida autonoma, che combina un dataset diversificato e nuove metriche per valutare realisticamente la coerenza temporale, la plausibilità delle traiettorie e il controllo, colmando le lacune delle valutazioni attuali e guidando lo sviluppo di simulatori affidabili.

Yang Zhou, Hao Shao, Letian Wang, Zhuofan Zong, Hongsheng Li, Steven L. Waslander2026-03-10💻 cs

Route, Retrieve, Reflect, Repair: Self-Improving Agentic Framework for Visual Detection and Linguistic Reasoning in Medical Imaging

Il paper presenta R^4, un framework agenziale auto-migliorante che, attraverso le fasi di instradamento, recupero, riflessione e riparazione, potenzia significativamente l'accuratezza e la sicurezza dei modelli visione-linguaggio nell'analisi delle immagini mediche senza richiedere alcun fine-tuning basato su gradienti.

Md. Faiyaz Abdullah Sayeedi, Rashedur Rahman, Siam Tahsin Bhuiyan, Sefatul Wasi, Ashraful Islam, Saadia Binte Alam, AKM Mahbubur Rahman2026-03-10💻 cs

The Algorithmic Gaze of Image Quality Assessment: An Audit and Trace Ethnography of the LAION-Aesthetics Predictor

Questo studio rivela come il predittore LAION-Aesthetics, ampiamente utilizzato per addestrare modelli di generazione di immagini, perpetui pregiudizi culturali e di genere attraverso un "sguardo algoritmico" che privilegia canoni estetici occidentali e maschili, escludendo altre prospettive e richiedendo un passaggio verso valutazioni più pluralistiche.

Jordan Taylor, William Agnew, Maarten Sap, Sarah E. Fox, Haiyi Zhu2026-03-10💻 cs

CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents

Questo paper introduce un'architettura di sicurezza per gli agenti di uso informatico basata sulla pianificazione "single-shot" e sull'isolamento strutturale, che garantisce l'integrità del flusso di controllo contro gli attacchi di iniezione di prompt e di deviazione dei rami, permettendo di conciliare sicurezza rigorosa e utilità operativa senza compromettere le prestazioni.

Hanna Foerster, Tom Blanchard, Kristina Nikolic, Ilia Shumailov, Cheng Zhang, Robert Mullins, Nicolas Papernot, Florian Tramèr, Yiren Zhao2026-03-10💻 cs

BoxMind: Closed-loop AI strategy optimization for elite boxing validated in the 2024 Olympics

Il paper presenta BoxMind, un sistema AI a ciclo chiuso che trasforma i dati video non strutturati in strategie tattiche ottimizzate per il pugilato, validato con successo durante le Olimpiadi del 2024 dove ha contribuito al successo storico della squadra nazionale cinese.

Kaiwen Wang, Kaili Zheng, Rongrong Deng, Qingmin Fan, Milin Zhang, Zongrui Li, Xuesi Zhou, Bo Han, Liren Chen, Chenyi Guo, Ji Wu2026-03-10💻 cs

S2DiT: Sandwich Diffusion Transformer for Mobile Streaming Video Generation

Il paper presenta S2DiT, un modello Transformer a diffusione ottimizzato per dispositivi mobili che, grazie a meccanismi di attenzione ibrida, una ricerca architetturale "a sandwich" e una distillazione avanzata, genera video in streaming ad alta fedeltà a oltre 10 FPS su iPhone con qualità paragonabile ai modelli server.

Lin Zhao, Yushu Wu, Aleksei Lebedev, Dishani Lahiri, Meng Dong, Arpit Sahni, Michael Vasilkovsky, Hao Chen, Ju Hu, Aliaksandr Siarohin, Sergey Tulyakov, Yanzhi Wang, Anil Kag, Yanyu Li2026-03-10💻 cs

ReViP: Mitigating False Completion in Vision-Language-Action Models with Vision-Proprioception Rebalance

Il paper introduce ReViP, un nuovo framework per modelli Vision-Language-Action che mitiga il fenomeno delle "false completions" bilanciando segnali visivi e propriocettivi tramite cue visivi consapevoli dello stato di avanzamento, ottenendo risultati significativamente superiori rispetto alle basi di riferimento su benchmark specifici e in scenari reali.

Zhuohao Li, Yinghao Li, Jian-Jian Jiang, Lang Zhou, Tianyu Zhang, Jiadong Yin, Mu Lin, Yi-Kin Wei, Wei-Shi Zheng2026-03-10💻 cs

ScenePilot-Bench: A Large-Scale Dataset and Benchmark for Evaluation of Vision-Language Models in Autonomous Driving

Questo articolo presenta ScenePilot-Bench, un benchmark su larga scala basato su un dataset di 3.847 ore di video di guida, progettato per valutare le capacità dei modelli visione-linguaggio nella comprensione, percezione spaziale e pianificazione del movimento in scenari di guida autonoma.

Yujin Wang, Yutong Zheng, Wenxian Fan, Tianyi Wang, Hongqing Chu, Li Zhang, Bingzhao Gao, Daxin Tian, Jianqiang Wang, Hong Chen2026-03-10💻 cs