Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Il paper propone l'ipotesi di sicurezza disaccoppiata (DSH), dimostrando che i meccanismi di sicurezza nei grandi modelli linguistici operano su due assi geometrici distinti (riconoscimento ed esecuzione) e sfruttando questa separazione per sviluppare un attacco di rimozione del rifiuto che raggiunge prestazioni all'avanguardia.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

First-Order Softmax Weighted Switching Gradient Method for Distributed Stochastic Minimax Optimization with Stochastic Constraints

Questo articolo propone un nuovo metodo di gradiente commutante con pesi softmax per l'ottimizzazione minimax stocastica distribuita con vincoli stocastici, dimostrando teoricamente una complessità di O(ϵ4)\mathcal{O}(\epsilon^{-4}) e una convergenza ad alta probabilità in scenari di apprendimento federato con partecipazione parziale, senza richiedere assunzioni di limitatezza standard.

Zhankun Luo, Antesh Upadhyay, Sang Bin Moon, Abolfazl Hashemi2026-03-09🤖 cs.LG

The Coordination Gap: Alternation Metrics for Temporal Dynamics in Multi-Agent Battle of the Exes

Questo studio introduce nuove metriche di alternanza temporale per rivelare come, nel gioco "Battle of the Exes" multi-agente, le tradizionali misure di efficienza e equità possano nascondere gravi carenze di coordinamento temporale, portando le politiche apprese a performare significativamente peggio rispetto a baseline casuali nonostante alti punteggi aggregati.

Nikolaos Al. Papadopoulos, Konstantinos Psannis2026-03-09🤖 cs.LG

Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Questo studio empirico analizza l'efficacia e i limiti del prompting many-shot come strategia di adattamento a tempo di test per i modelli linguistici, rivelando che mentre funziona bene per compiti strutturati ad alto guadagno informativo, è spesso sensibile alla selezione degli esempi e poco vantaggioso per la generazione aperta.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

Il paper introduce ReflexiCoder, un nuovo framework di apprendimento per rinforzo che addestra i modelli linguistici a internalizzare capacità autonome di auto-riflessione e auto-correzione del codice, ottenendo risultati all'avanguardia su diversi benchmark senza dipendere da oracoli esterni o feedback di esecuzione durante l'inferenza.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

Il paper introduce RePO, un nuovo approccio di ottimizzazione che combina l'esplorazione tramite apprendimento per rinforzo con reward verificabili e la guida di riferimento tramite addestramento supervisionato, superando i limiti delle tecniche attuali nell'ottimizzazione molecolare basata su LLM in assenza di dati di traiettoria.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

Stock Market Prediction Using Node Transformer Architecture Integrated with BERT Sentiment Analysis

Questo studio presenta un framework integrato che combina un'architettura Node Transformer con l'analisi del sentiment basata su BERT per la previsione dei prezzi azionari, ottenendo risultati superiori rispetto ai modelli tradizionali grazie alla capacità di catturare le dipendenze cross-settoriali e l'impatto delle notizie, come dimostrato su 20 titoli S&P 500 con un errore medio assoluto percentuale (MAPE) dell'0,80%.

Mohammad Al Ridhawi, Mahtab Haj Ali, Hussein Al Osman2026-03-09🤖 cs.AI