SpectroFusion-ViT: A Lightweight Transformer for Speech Emotion Recognition Using Harmonic Mel-Chroma Fusion

Il paper presenta SpectroFusion-ViT, un framework leggero basato su EfficientViT-b0 che fonde le caratteristiche armoniche e Mel-Chroma per il riconoscimento delle emozioni nel parlato in lingua bengalese, ottenendo prestazioni superiori rispetto allo stato dell'arte con un'efficienza computazionale ottimizzata.

Faria Ahmed, Rafi Hassan Chowdhury, Fatema Tuz Zohora Moon + 1 more2026-03-03🤖 cs.LG

Identifying and Characterising Response in Clinical Trials: Development and Validation of a Machine Learning Approach in Colorectal Cancer

Questo studio presenta e convalida un nuovo approccio basato sull'apprendimento automatico che combina la modellazione parzialmente condizionata e il metodo Virtual Twins per identificare e caratterizzare dinamicamente la risposta ai trattamenti nei pazienti con cancro colorettale metastatico, ottenendo risultati coerenti con la letteratura e superiori ai metodi statici esistenti.

Adam Marcus, Paul Agapow2026-03-03🤖 cs.LG

Curation Leaks: Membership Inference Attacks against Data Curation for Machine Learning

Questo lavoro dimostra che i processi di curazione dei dati per il machine learning, anche quando utilizzati per selezionare dati pubblici basandosi su dati privati senza addestramento diretto, sono vulnerabili ad attacchi di inferenza dell'appartenenza che rivelano informazioni sensibili, ma che tali rischi possono essere mitigati applicando garanzie di privacy differenziale.

Dariush Wahdany, Matthew Jagielski, Adam Dziedzic + 1 more2026-03-03🤖 cs.LG

MultiPUFFIN: A Multimodal Domain-Constrained Foundation Model for Molecular Property Prediction of Small Molecules

Il paper presenta MultiPUFFIN, un modello fondazionale multimodale vincolato da principi termodinamici che, integrando diverse rappresentazioni molecolari e equazioni fisiche, supera le prestazioni dei modelli pre-addestrati su larga scala nella previsione simultanea di nove proprietà fisico-chimiche, pur richiedendo una frazione minima dei dati e della potenza computazionale.

Idelfonso B. R. Nogueira, Carine M. Rebelloa, Mumin Enis Leblebici + 1 more2026-03-03🤖 cs.LG

Knowledge without Wisdom: Measuring Misalignment between LLMs and Intended Impact

Questo studio dimostra che i principali modelli linguistici fondazionali, pur eccellendo nei benchmark, mostrano un'allineamento negativo con gli esiti di apprendimento degli studenti e che le loro prestazioni su compiti educativi sono più correlate tra loro che con il comportamento umano esperto, suggerendo che la pre-addestramento comune è una fonte significativa di questo disallineamento.

Michael Hardy, Yunsung Kim2026-03-03📊 stat