From Solver to Tutor: Evaluating the Pedagogical Intelligence of LLMs with KMP-Bench

Il paper introduce KMP-Bench, un benchmark completo per valutare l'intelligenza pedagogica dei modelli linguistici nell'insegnamento della matematica K-8, evidenziando il divario tra le loro capacità di risoluzione e quelle didattiche, e presentando KMP-Pile, un dataset di dialogo su larga scala che, se utilizzato per il fine-tuning, migliora significativamente le prestazioni dei modelli in questo ambito.

Weikang Shi, Houxing Ren, Junting Pan + 8 more2026-03-04💬 cs.CL

Lattice-based Deep Neural Networks: Regularity and Tailored Regularization

Questo articolo di rassegna esplora l'applicazione delle regole reticolari come punti di addestramento per le reti neurali profonde, dimostrando che l'uso di regolarizzazioni su misura basate su queste regole permette di ottenere limiti di errore di generalizzazione indipendenti dalla dimensionalità e prestazioni numeriche superiori rispetto alla regolarizzazione 2\ell_2 standard.

Alexander Keller, Frances Y. Kuo, Dirk Nuyens + 1 more2026-03-04🤖 cs.LG

ChemFlow:A Hierarchical Neural Network for Multiscale Representation Learning in Chemical Mixtures

Il paper presenta ChemFlow, un innovativo framework di reti neurali gerarchiche che integra rappresentazioni atomiche, di gruppi funzionali e molecolari per prevedere con precisione le proprietà fisico-chimiche di miscele chimiche complesse, superando i limiti degli approcci esistenti nel modellare le interazioni multiscala e la dipendenza dalle concentrazioni.

Jinming Fan, Chao Qian, Wilhelm T. S. Huck + 2 more2026-03-04🤖 cs.LG

Eliciting Numerical Predictive Distributions of LLMs Without Autoregression

Questo lavoro dimostra che è possibile recuperare le proprietà distributive delle previsioni numeriche dei Large Language Models, inclusi gli indici di incertezza, addestrando sonde sulle loro rappresentazioni interne per prevedere direttamente statistiche come medie e quantili, evitando così il costoso processo di generazione autoregressiva.

Julianna Piskorz, Katarzyna Kobalczyk, Mihaela van der Schaar2026-03-04🤖 cs.AI

On the Structural Limitations of Weight-Based Neural Adaptation and the Role of Reversible Behavioral Learning

Questo studio introduce il concetto di apprendimento comportamentale reversibile per superare i limiti strutturali dell'adattamento basato sui pesi, dimostrando che dissociare i comportamenti specifici dai parametri condivisi permette un ripristino deterministico dell'identità del modello, a differenza delle modifiche tradizionali che causano una divergenza permanente.

Pardhu Sri Rushi Varma Konduru2026-03-04🤖 cs.AI

Bias and Fairness in Self-Supervised Acoustic Representations for Cognitive Impairment Detection

Questo studio evidenzia come, sebbene le rappresentazioni acustiche auto-supervisionate (Wav2Vec 2.0) superino i metodi tradizionali nel rilevamento del declino cognitivo, presentino significative disparità di prestazioni basate su genere ed età, sottolineando la necessità di valutazioni eque e specifiche per sottogruppi nelle applicazioni cliniche basate sulla voce.

Kashaf Gulzar, Korbinian Riedhammer, Elmar Nöth + 2 more2026-03-04⚡ eess

Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models

Il paper presenta GraphSSR, un nuovo framework che supera i limiti delle strategie di estrazione dei sottografi "one-size-fits-all" nel ragionamento grafico zero-shot basato su LLM, introducendo un processo adattivo di "Sample-Select-Reason" potenziato da tecniche di fine-tuning supervisionato e apprendimento per rinforzo per la denoising dinamica dei sottografi.

Fengzhi Li, Liang Zhang, Yuan Zuo + 5 more2026-03-04🤖 cs.AI

Enhancing Physics-Informed Neural Networks with Domain-aware Fourier Features: Towards Improved Performance and Interpretable Results

Questo lavoro propone l'uso di Fourier Features consapevoli del dominio (DaFFs) per migliorare l'accuratezza, l'efficienza e l'interpretabilità delle Physics-Informed Neural Networks (PINN), eliminando la necessità di termini di perdita espliciti per le condizioni al contorno e fornendo attribuzioni di rilevanza fisicamente coerenti tramite un framework LRP.

Alberto Miño Calero, Luis Salamanca, Konstantinos E. Tatsis2026-03-04🤖 cs.AI

Sparse autoencoders reveal organized biological knowledge but minimal regulatory logic in single-cell foundation models: a comparative atlas of Geneformer and scGPT

Lo studio dimostra che i modelli fondazionali per cellule singole, come Geneformer e scGPT, codificano una ricca conoscenza biologica organizzata ma possiedono una logica regolatoria causale minima, rivelando che il collasso di superposizione e la mancanza di risposte specifiche ai fattori di trascrizione limitano la loro capacità di rappresentare meccanismi causali.

Ihor Kendiukhov2026-03-04🧬 q-bio