Truth as a Trajectory: What Internal Representations Reveal About Large Language Model Reasoning

Il paper introduce "Truth as a Trajectory" (TaT), un metodo che analizza le variazioni geometriche degli stati nascosti tra i livelli dei modelli linguistici invece delle attivazioni statiche, permettendo di distinguere il ragionamento valido dai comportamenti spurii e superando i limiti dei metodi di spiegabilità tradizionali.

Hamed Damirchi, Ignacio Meza De la Jara, Ehsan Abbasnejad + 3 more2026-03-03💬 cs.CL

Causal Effects with Unobserved Unit Types in Interacting Human-AI Systems

Questo lavoro propone un quadro teorico e pratico per stimare gli effetti causali specifici sugli esseri umani in sistemi interagenti con l'IA, dove né i tipi di unità né la rete di interazione sono osservabili, sfruttando una conoscenza a priori della composizione della popolazione e un framework di passaggio di messaggi causali per identificare gli effetti attraverso subpopolazioni aggregate.

William Overman, Sadegh Shirani, Mohsen Bayati2026-03-03📊 stat

Constructing Synthetic Instruction Datasets for Improving Reasoning in Domain-Specific LLMs: A Case Study in the Japanese Financial Domain

Questo studio presenta un metodo generale per costruire dataset di istruzioni sintetiche di alta qualità partendo dal vocabolario specifico di un settore, dimostrando nel dominio finanziario giapponese come l'uso di tracce di ragionamento (Chain-of-Thought) su larga scala migliori le capacità di ragionamento dei modelli linguistici, con risorse ora open-source.

Yuma Okochi, Fabio Milentiansen Sim, Tomoyasu Okada2026-03-03💬 cs.CL

Align and Filter: Improving Performance in Asynchronous On-Policy RL

Il paper propone il metodo TACPO, basato su vincoli di ottimizzazione della politica allineati al vantaggio tramite variazione totale, per mitigare il ritardo della politica (policy lag) nei sistemi di apprendimento per rinforzo on-policy distribuiti e ad alta frequenza di aggiornamento, migliorando così le prestazioni sia in compiti classici che nel ragionamento matematico con LLM.

Homayoun Honari, Roger Creus Castanyer, Michael Przystupa + 3 more2026-03-03⚡ eess

3BASiL: An Algorithmic Framework for Sparse plus Low-Rank Compression of LLMs

Il paper introduce 3BASiL-TM, un metodo efficiente per la compressione one-shot dei Large Language Models basato su una decomposizione in somma di matrici sparse e a basso rango che, grazie a un nuovo algoritmo ADMM a tre blocchi e a un raffinamento di matching dei transformer, riduce significativamente il gap di prestazioni rispetto ai modelli densi e accelera i tempi di compressione rispetto agli stati dell'arte.

Mehdi Makni, Xiang Meng, Rahul Mazumder2026-03-03📊 stat

Tackling multiphysics problems via finite element-guided physics-informed operator learning

Questo lavoro presenta un framework di apprendimento di operatori informato dalla fisica e guidato dagli elementi finiti, implementato su Folax, che risolve con alta accuratezza problemi multifisici accoppiati su domini arbitrari senza dati etichettati, dimostrando l'efficacia di diverse architetture neurali come FNO e iFOL per la previsione indipendente dalla discretizzazione in scenari complessi.

Yusuke Yamazaki, Reza Najian Asl, Markus Apel + 2 more2026-03-03🤖 cs.LG