Autoassociative Learning of Structural Representations for Modeling and Classification in Medical Imaging

Questo studio propone un sistema neurosimbolico che, ricostruendo immagini mediche tramite primitive visive per generare spiegazioni strutturali ad alto livello, supera le architetture deep learning convenzionali nella diagnosi di anomalie istologiche offrendo al contempo maggiore accuratezza e trasparenza.

Zuzanna Buchnajzer, Kacper Dobek, Stanisław Hapke, Daniel Jankowski, Krzysztof Krawiec2026-03-10🤖 cs.LG

Prithvi-EO-2.0: A Versatile Multi-Temporal Foundation Model for Earth Observation Applications

Il documento presenta Prithvi-EO-2.0, un nuovo modello fondazionale geospaziale open-source addestrato su 4,2 milioni di serie temporali globali che supera le prestazioni del suo predecessore e di altri modelli esistenti, offrendo versatilità in applicazioni come la risposta alle emergenze e il monitoraggio ambientale grazie a un approccio di scienza aperta collaborativa.

Daniela Szwarcman, Sujit Roy, Paolo Fraccaro, {\TH}orsteinn Elí Gíslason, Benedikt Blumenstiel, Rinki Ghosal, Pedro Henrique de Oliveira, Joao Lucas de Sousa Almeida, Rocco Sedona, Yanghui Kang, Srija Chakraborty, Sizhe Wang, Carlos Gomes, Ankur Kumar, Myscon Truong, Denys Godwin, Hyunho Lee, Chia-Yu Hsu, Rohit Lal, Ata Akbari Asanjan, Besart Mujeci, Disha Shidham, Trevor Keenan, Paulo Arevalo, Wenwen Li, Hamed Alemohammad, Pontus Olofsson, Christopher Hain, Robert Kennedy, Bianca Zadrozny, David Bell, Gabriele Cavallaro, Campbell Watson, Manil Maskey, Rahul Ramachandran, Juan Bernabe Moreno2026-03-10💻 cs

Multi-modal, Multi-task, Multi-criteria Automatic Evaluation with Vision Language Models

Il paper propone HarmonicEval, una metrica di valutazione automatica senza riferimento che aggrega i punteggi per criterio in modo bottom-up, e introduce il benchmark MMHE con 18.000 giudizi umani per dimostrare che il metodo supera le metriche convenzionali nella valutazione multi-task e multi-criterio dei modelli visione-linguaggio.

Masanari Ohi, Masahiro Kaneko, Naoaki Okazaki, Nakamasa Inoue2026-03-10💬 cs.CL

LangSurf: Language-Embedded Surface Gaussians for 3D Scene Understanding

Il paper presenta LangSurf, un metodo che allinea con precisione i campi linguistici 3D alle superfici degli oggetti mediante un'addestramento congiunto e un modulo di consapevolezza contestuale gerarchica, superando le prestazioni dello stato dell'arte per la segmentazione semantica open-vocabulary e abilitando compiti avanzati di editing e rimozione in 3D.

Hao Li, Minghan Qin, Zhengyu Zou, Diqi He, Xinhao Ji, Bohan Li, Bingquan Dai, Dingewn Zhang, Junwei Han2026-03-10💻 cs

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Questo lavoro propone un metodo che sfrutta modelli visione-linguaggio preaddestrati per apprendere modelli del mondo simbolici astratti da dimostrazioni brevi, consentendo a sistemi robotici di pianificare e risolvere compiti decisionali a lungo termine con una generalizzazione zero-shot in scenari complessi e non visti in precedenza.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

VL-Nav: A Neuro-Symbolic Approach for Reasoning-based Vision-Language Navigation

Il paper presenta VL-Nav, un sistema di navigazione visione-linguaggio neuro-simbolico che combina ragionamento neurale e guida simbolica per decomporre compiti complessi e ottimizzare l'esplorazione, ottenendo risultati di successo superiori nell'83,4% dei casi in ambienti indoor e nell'86,3% in esperimenti reali.

Yi Du, Taimeng Fu, Zhipeng Zhao, Shaoshu Su, Zitong Zhan, Zhuoqun Chen, Bowen Li, Chen Wang2026-03-10💻 cs

Prompt-SID: Learning Structural Representation Prompt via Latent Diffusion for Single-Image Denoising

Il paper introduce Prompt-SID, un framework di denoising per immagini singole basato sull'apprendimento di prompt strutturali generati tramite un processo di diffusione latente e integrati in un denoiser transformer, che addestrato in modo auto-supervisionato preserva efficacemente i dettagli strutturali superando i limiti delle metodologie esistenti.

Huaqiu Li, Wang Zhang, Xiaowan Hu, Tao Jiang, Zikang Chen, Haoqian Wang2026-03-10💻 cs

Enhancing Alzheimer's Diagnosis: Leveraging Anatomical Landmarks in Graph Convolutional Neural Networks on Tetrahedral Meshes

Il paper propone un modello di apprendimento profondo geometrico basato su transformer che, integrando punti di riferimento anatomici in mesh tetraedriche derivanti da risonanza magnetica strutturale, migliora la diagnosi dell'Alzheimer e la previsione della positività all'amiloide cerebrale, riducendo la necessità di scansioni PET costose e invasive.

Yanxi Chen, Mohammad Farazi, Zhangsihao Yang, Yonghui Fan, Nicholas Ashton, Eric M Reiman, Yi Su, Yalin Wang2026-03-10💻 cs

Snapmoji: Instant Generation of Animatable Dual-Stylized Avatars

Il paper introduce Snapmoji, un sistema che genera istantaneamente avatar 3D animabili e personalizzabili su dispositivi mobili a 30-40 FPS, trasformando un selfie in uno stile principale tramite l'adattamento del dominio Gaussiano (GDA) e applicando successivamente uno stile secondario pur preservando l'identità dell'utente.

Eric M. Chen, Di Liu, Sizhuo Ma, Michael Vasilkovsky, Bing Zhou, Qiang Gao, Wenzhou Wang, Jiahao Luo, Dimitris N. Metaxas, Vincent Sitzmann, Jian Wang2026-03-10💻 cs

SceneEval: Evaluating Semantic Coherence in Text-Conditioned 3D Indoor Scene Synthesis

Il paper presenta SceneEval, un nuovo framework di valutazione e un benchmark di 500 campioni (SceneEval-500) progettati per misurare in modo completo e interpretabile la coerenza semantica e il rispetto delle specifiche testuali nella sintesi di scene 3D interne, evidenziando le lacune attuali nei metodi di generazione esistenti.

Hou In Ivan Tam, Hou In Derek Pun, Austin T. Wang, Angel X. Chang, Manolis Savva2026-03-10💻 cs

From 2D Alignment to 3D Plausibility: Unifying Heterogeneous 2D Priors and Penetration-Free Diffusion for Occlusion-Robust Two-Hand Reconstruction

Questo lavoro propone un metodo unificato per la ricostruzione robusta di due mani da immagini monoculare, che combina un codificatore di fusione per allineare eterogenee priorità 2D da modelli fondazionali con un modello di diffusione privo di penetrazione per garantire interazioni 3D fisicamente plausibili e coerenti.

Gaoge Han, Yongkang Cheng, Zhe Chen, Shaoli Huang, Tongliang Liu2026-03-10💻 cs