MultiPUFFIN: A Multimodal Domain-Constrained Foundation Model for Molecular Property Prediction of Small Molecules

Il paper presenta MultiPUFFIN, un modello fondazionale multimodale vincolato da principi termodinamici che, integrando diverse rappresentazioni molecolari e equazioni fisiche, supera le prestazioni dei modelli pre-addestrati su larga scala nella previsione simultanea di nove proprietà fisico-chimiche, pur richiedendo una frazione minima dei dati e della potenza computazionale.

Idelfonso B. R. Nogueira, Carine M. Rebelloa, Mumin Enis Leblebici + 1 more2026-03-03🤖 cs.LG

Knowledge without Wisdom: Measuring Misalignment between LLMs and Intended Impact

Questo studio dimostra che i principali modelli linguistici fondazionali, pur eccellendo nei benchmark, mostrano un'allineamento negativo con gli esiti di apprendimento degli studenti e che le loro prestazioni su compiti educativi sono più correlate tra loro che con il comportamento umano esperto, suggerendo che la pre-addestramento comune è una fonte significativa di questo disallineamento.

Michael Hardy, Yunsung Kim2026-03-03📊 stat

Curvature-Weighted Capacity Allocation: A Minimum Description Length Framework for Layer-Adaptive Large Language Model Optimization

Questo lavoro propone un framework teorico basato sul principio della Lunghezza Minima di Descrizione (MDL) che utilizza il guadagno aggiustato per la curvatura per allocare in modo ottimale le capacità computazionali o eseguire il pruning negli strati dei grandi modelli linguistici, garantendo soluzioni a forma chiusa, complessità computazionale efficiente e limiti di rimpianto trasferibili.

Theophilus Amaefuna, Hitesh Vaidya, Anshuman Chhabra + 1 more2026-03-03🤖 cs.LG

SoberDSE: Sample-Efficient Design Space Exploration via Learning-Based Algorithm Selection

Il framework SoberDSE risolve il problema della selezione algoritmica nella esplorazione dello spazio di progettazione (DSE) per la Sintesi di Alto Livello, superando gli stati dell'arte tramite un meccanismo di apprendimento automatico che identifica dinamicamente l'algoritmo più performante per ogni istanza specifica, garantendo risultati superiori anche in scenari con pochi dati.

Lei Xu, Shanshan Wang, Chenglong Xiao2026-03-03🤖 cs.LG

Compensation-free Machine Unlearning in Text-to-Image Diffusion Models by Eliminating the Mutual Information

Questo articolo presenta MiM-MU, un metodo innovativo per l'oblio delle macchine nei modelli di diffusione testo-immagine che elimina i concetti indesiderati minimizzando l'informazione reciproca, ottenendo così una rimozione efficace senza compromettere la qualità delle generazioni rimanenti e senza richiedere alcuna compensazione post-remediale.

Xinwen Cheng, Jingyuan Zhang, Zhehao Huang + 2 more2026-03-03🤖 cs.LG