Omni-C: Compressing Heterogeneous Modalities into a Single Dense Encoder

Il paper presenta Omni-C, un singolo encoder denso basato su Transformer che comprime modalità eterogenee (immagini, audio e testo) in rappresentazioni condivise tramite pre-addestramento contrastivo, eliminando la necessità di architetture Mixture-of-Experts e riducendo significativamente l'uso di memoria rispetto ai modelli multimodali tradizionali.

Kin Wai Lau, Yasar Abbas Ur Rehman, Lai-Man Po, Pedro Porto Buarque de Gusmão2026-03-09🤖 cs.AI

Clinical-Injection Transformer with Domain-Adapted MAE for Lupus Nephritis Prognosis Prediction

Questo studio propone il primo quadro computazionale multimodale per la prognosi della nefrite lupica pediatrica, che combina dati clinici e istopatologici tramite un Transformer a iniezione clinica e un MAE adattato al dominio, ottenendo un'accuratezza del 90,1% nella previsione della risposta al trattamento utilizzando solo biopsie colorate con PAS.

Yuewen Huang, Zhitao Ye, Guangnan Feng, Fudan Zheng, Xia Gao, Yutong Lu2026-03-09🤖 cs.LG

AutothinkRAG: Complexity-Aware Control of Retrieval-Augmented Reasoning for Image-Text Interaction

Il paper presenta AutoThinkRAG, un framework che migliora il ragionamento su documenti complessi tramite un router di difficoltà delle query e un'architettura a decoupling funzionale che combina un piccolo modello visivo per l'interpretazione e un LLM per la deduzione, ottenendo prestazioni all'avanguardia con costi ridotti.

Jiashu Yang, Chi Zhang, Abudukelimu Wuerkaixi, Xuxin Cheng, Cao Liu, Ke Zeng, Xu Jia, Xunliang Cai2026-03-09💻 cs

DreamCAD: Scaling Multi-modal CAD Generation using Differentiable Parametric Surfaces

DreamCAD è un nuovo framework generativo multimodale che supera le limitazioni dei dati annotati producendo modelli CAD editabili direttamente da supervisione a livello di punti e da un vasto dataset di 1 milione di descrizioni, ottenendo prestazioni all'avanguardia nella generazione di geometrie complesse.

Mohammad Sadil Khan, Muhammad Usama, Rolandos Alexandros Potamias, Didier Stricker, Muhammad Zeshan Afzal, Jiankang Deng, Ismail Elezi2026-03-09🤖 cs.AI

Adversarial Batch Representation Augmentation for Batch Correction in High-Content Cellular Screening

Il paper propone ABRA, un nuovo metodo di generalizzazione di dominio che utilizza l'aumento avversario delle rappresentazioni per correggere gli effetti di batch biologici nelle immagini di screening ad alto contenuto, ottenendo risultati all'avanguardia nella classificazione delle perturbazioni siRNA.

Lei Tong, Xujing Yao, Adam Corrigan, Long Chen, Navin Rathna Kumar, Kerry Hallbrook, Jonathan Orme, Yinhai Wang, Huiyu Zhou2026-03-09🤖 cs.AI

Rethinking Concept Bottleneck Models: From Pitfalls to Solutions

Il paper introduce CBM-Suite, un framework metodologico che risolve le limitazioni fondamentali dei Concept Bottleneck Models proponendo una metrica basata sull'entropia per valutare la rilevanza dei concetti, un layer non lineare per evitare il bypass del bottleneck, una distillazione guidata per colmare il divario di accuratezza e un'analisi sistematica dell'impatto dei diversi backbones visivi.

Merve Tapli, Quentin Bouniot, Wolfgang Stammer, Zeynep Akata, Emre Akbas2026-03-09💻 cs

Making Reconstruction FID Predictive of Diffusion Generation FID

Il paper propone l'interpolated FID (iFID), una nuova metrica che interpola le rappresentazioni latenti tra i dati e i loro vicini più prossimi, dimostrando una forte correlazione con la qualità della generazione dei modelli di diffusione e risolvendo il problema della scarsa predittività del reconstruction FID tradizionale.

Tongda Xu, Mingwei He, Shady Abu-Hussein, Jose Miguel Hernandez-Lobato, Haotian Zhang, Kai Zhao, Chao Zhou, Ya-Qin Zhang, Yan Wang2026-03-09🤖 cs.LG

When Rubrics Fail: Error Enumeration as Reward in Reference-Free RL Post-Training for Virtual Try-On

Questo paper propone l'Implicit Error Counting (IEC), un metodo di apprendimento per rinforzo senza riferimenti che valuta le risposte enumerando gli errori invece di utilizzare rubriche basate su risposte ideali, dimostrando la sua superiorità nel post-training per il virtual try-on su benchmark specifici.

Wisdom Ikezogwo, Mehmet Saygin Seyfioglu, Ranjay Krishna, Karim Bouyarmane2026-03-09🤖 cs.AI

Keeping the Evidence Chain: Semantic Evidence Allocation for Training-Free Token Pruning in Video Temporal Grounding

Il paper propone SemVID, un framework di pruning dei token senza addestramento che, preservando le evidenze critiche e la connettività inter-frame attraverso una specifica allocazione semantica, ottimizza l'efficienza e le prestazioni del grounding temporale video mantenendo un'alta accuratezza.

Jiaqi Li, Shuntian Zheng, Yixian Shen, Jia-Hong Huang, Xiaoman Lu, Minzhe Ni, Yu Guan2026-03-09💻 cs

Gabor Primitives for Accelerated Cardiac Cine MRI Reconstruction

Il paper propone l'uso di primitive di Gabor, che modulano involucri gaussiani con esponenziali complessi per rappresentare efficacemente sia le strutture lisce che i confini netti, combinati con una decomposizione temporale a basso rango per ricostruire immagini di risonanza magnetica cardiaca cine accelerate, superando le prestazioni dei metodi esistenti come la compressione sensoriale e le rappresentazioni neurali implicite.

Wenqi Huang, Veronika Spieker, Nil Stolt-Ansó, Natascha Niessen, Maik Dannecker, Sevgi Gokce Kafali, Sila Kurugol, Julia A. Schnabel, Daniel Rueckert2026-03-09💻 cs

MultiHaystack: Benchmarking Multimodal Retrieval and Reasoning over 40K Images, Videos, and Documents

Il paper introduce MultiHaystack, il primo benchmark su larga scala che valuta la capacità dei modelli linguistici multimodali di recuperare e ragionare su oltre 46.000 documenti, immagini e video, rivelando che le prestazioni crollano drasticamente quando è richiesto un recupero dell'evidenza da un corpus eterogeneo rispetto all'analisi diretta dei dati forniti.

Dannong Xu, Zhongyu Yang, Jun Chen, Yingfang Yuan, Ming Hu, Lei Sun, Luc Van Gool, Danda Pani Paudel, Chun-Mei Feng2026-03-09💻 cs