Cycle-Consistent Multi-Graph Matching for Self-Supervised Annotation of C.Elegans

Questo lavoro presenta un approccio completamente non supervisionato basato sulla coerenza ciclica e sull'ottimizzazione bayesiana per l'annotazione sematica delle cellule in immagini microscopiche 3D di *C. elegans*, permettendo la creazione del primo atlante non supervisionato dell'organismo e superando le limitazioni dei metodi supervisionati attuali.

Christoph Karg, Sebastian Stricker, Lisa Hutschenreiter + 2 more2026-03-04💻 cs

HSSBench: Benchmarking Humanities and Social Sciences Ability for Multimodal Large Language Models

Il paper presenta HSSBench, un benchmark multilingue composto da oltre 13.000 campioni e sviluppato con un nuovo pipeline di generazione dati collaborativa, progettato per valutare e stimolare le capacità di ragionamento interdisciplinare dei Modelli Linguistici Multimodali nel campo delle Scienze Umane e Sociali, un'area attualmente sottorappresentata nelle valutazioni esistenti.

Zhaolu Kang, Junhao Gong, Jiaxu Yan + 15 more2026-03-04🤖 cs.AI

MC-INR: Efficient Encoding of Multivariate Scientific Simulation Data using Meta-Learning and Clustered Implicit Neural Representations

Il paper presenta MC-INR, un nuovo framework basato su reti neurali che utilizza meta-apprendimento e un meccanismo di riclustering dinamico per codificare in modo efficiente dati scientifici multivariati su griglie non strutturate, superando i limiti delle rappresentazioni neurali implicite esistenti.

Hyunsoo Son, Jeonghyun Noh, Suemin Jeon + 2 more2026-03-04🤖 cs.LG

InstructVLA: Vision-Language-Action Instruction Tuning from Understanding to Manipulation

Il paper introduce InstructVLA, un modello visione-linguaggio-azione che, grazie a una nuova strategia di addestramento chiamata VLA-IT, integra efficacemente il ragionamento multimodale avanzato con la generazione precisa di azioni robotiche, superando i limiti di dimenticanza catastrofica e le prestazioni dei modelli esistenti sia in ambienti simulati che nel mondo reale.

Shuai Yang, Hao Li, Bin Wang + 7 more2026-03-04💻 cs