When Your Own Output Becomes Your Training Data: Noise-to-Meaning Loops and a Formal RSI Trigger

Il documento presenta il modello formale N2M-RSI, che dimostra come un agente AI che utilizza i propri output come dati di addestramento possa generare una crescita illimitata della complessità interna una volta superata una specifica soglia di integrazione informativa, unificando concetti di auto-prompting e riferimento godeliano in un framework agnostico rispetto all'implementazione.

Rintaro Ando2026-03-05🤖 cs.AI

Healthy LLMs? Benchmarking LLM Knowledge of UK Government Public Health Information

Questo studio introduce PubHealthBench, un nuovo benchmark basato su oltre 8000 domande derivate dalle linee guida del governo britannico, per valutare le conoscenze di 24 modelli linguistici (LLM) nel campo della sanità pubblica, rivelando che, sebbene i modelli proprietari più recenti superino gli umani nelle risposte a scelta multipla, mostrano prestazioni inferiori nelle risposte in formato libero, indicando la necessità di ulteriori misure di sicurezza.

Joshua Harris, Fan Grayson, Felix Feldman + 8 more2026-03-05🤖 cs.LG

TSPulse: Tiny Pre-Trained Models with Disentangled Representations for Rapid Time-Series Analysis

TSPulse è una famiglia di modelli pre-addestrati ultra-leggeri che, grazie a rappresentazioni disaccoppiate in domini temporali, spettrali e semantici, supera le prestazioni di modelli molto più grandi su diverse attività di diagnostica delle serie temporali abilitando un trasferimento zero-shot efficiente e un deployment senza GPU.

Vijay Ekambaram, Subodh Kumar, Arindam Jati + 5 more2026-03-05🤖 cs.AI

Convergence, Sticking and Escape: Stochastic Dynamics Near Critical Points in SGD

Lo studio analizza le proprietà di convergenza e le dinamiche di fuga dello Stochastic Gradient Descent (SGD) in paesaggi unidimensionali, dimostrando come il rumore e la geometria della funzione influenzino i tempi di transizione tra i minimi locali e i massimi, evidenziando che l'algoritmo può rimanere intrappolato vicino a massimi locali ma tende a sfuggire da massimi "acuti" per raggiungere i minimi adiacenti.

Dmitry Dudukalov, Artem Logachov, Vladimir Lotov + 3 more2026-03-05🤖 cs.LG

BAH Dataset for Ambivalence/Hesitancy Recognition in Videos for Digital Behavioural Change

Questo paper introduce il dataset BAH, un nuovo insieme di dati multimodale composto da 1.427 video annotati da esperti per il riconoscimento automatico dell'ambivalenza e dell'esitazione nei contesti di cambiamento comportamentale digitale, fornendo anche risultati preliminari che evidenziano la necessità di modelli spaziotemporali avanzati.

Manuela González-González, Soufiane Belharbi, Muhammad Osama Zeeshan + 6 more2026-03-05🤖 cs.LG

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Il paper propone la Calibrazione Supervisionata (SC), un nuovo framework basato sulla minimizzazione della perdita che supera i limiti delle tecniche di calibrazione esistenti per l'Apprendimento in Contesto (ICL) nei LLM, permettendo di modificare l'orientamento dei confini decisionali e integrando regolarizzatori per migliorare la stabilità e le prestazioni su diversi modelli e dataset.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI