Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

Il paper propone Deep FlexQP, un risolutore di programmazione quadratica convessa basato su un'architettura di deep unfolding che garantisce la fattibilità e accelera significativamente la risoluzione di problemi di ottimizzazione non lineare, superando gli stati dell'arte in termini di velocità e successo in applicazioni come l'ottimizzazione di traiettorie e i filtri di sicurezza predittivi.

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math

Bootstrapped Mixed Rewards for RL Post-Training: Injecting Canonical Action Order

Questo studio dimostra che l'aggiunta di un segnale di ricompensa per l'ordine canonico delle azioni, combinato con una ricompensa di compito durante il post-training con RL su indovinelli Zebra, migliora le prestazioni del modello rispetto all'ottimizzazione basata solo sul compito, guidando il modello verso traiettorie canoniche senza modificare i dati supervisionati o l'architettura.

Prakhar Gupta, Vaibhav Gupta2026-03-06💻 cs

ClinNoteAgents: An LLM Multi-Agent System for Predicting and Interpreting Heart Failure 30-Day Readmission from Clinical Notes

Il paper presenta ClinNoteAgents, un sistema multi-agente basato su LLM che trasforma le note cliniche non strutturate in rappresentazioni interpretabili per prevedere con alta accuratezza il rischio di riammissione ospedaliera a 30 giorni per insufficienza cardiaca, riducendo al contempo la dipendenza da dati strutturati e annotazioni manuali.

Rongjia Zhou, Chengzhuo Li, Carl Yang + 1 more2026-03-06💻 cs

Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning

Il paper presenta InternGeometry, un agente basato su un modello linguistico potenziato da un meccanismo di memoria dinamica e da un'apprendimento per rinforzo a complessità crescente (CBRL), che risolve il 88% dei problemi di geometria delle Olimpiadi Internazionali di Matematica con una frazione minima dei dati di addestramento rispetto agli approcci precedenti, superando anche la media dei vincitori di medaglia d'oro.

Haiteng Zhao, Junhao Shen, Yiming Zhang + 7 more2026-03-06💻 cs

ReFusion: A Diffusion Large Language Model with Parallel Autoregressive Decoding

Il paper presenta ReFusion, un modello di linguaggio basato sulla diffusione che supera i limiti computazionali e di coerenza dei modelli precedenti integrando la riorganizzazione della sequenza nel framework dell'attenzione causale, ottenendo così un decodifica parallelo con caching KV completo che garantisce sia un significativo aumento delle prestazioni rispetto ai modelli diffusion esistenti, sia un vantaggio di velocità rispetto ai modelli autoregressivi tradizionali.

Jia-Nan Li, Jian Guan, Wei Wu + 1 more2026-03-06💻 cs

HydroGEM: A Self Supervised Zero Shot Hybrid TCN Transformer Foundation Model for Continental Scale Streamflow Quality Control

Il paper presenta HydroGEM, un modello fondazionale ibrido TCN-Transformer auto-supervisionato progettato per il controllo di qualità dello scarico fluviale su scala continentale, che supera i metodi esistenti nella rilevazione e ricostruzione delle anomalie grazie all'addestramento su milioni di sequenze pulite e alla capacità di generalizzare attraverso confini nazionali.

Ijaz Ul Haq, Byung Suk Lee, Julia N. Perdrial + 1 more2026-03-06💻 cs

When Do Tools and Planning Help Large Language Models Think? A Cost- and Latency-Aware Benchmark

Questo studio dimostra che l'uso di strumenti esterni e pianificazione durante l'inferenza migliora significativamente l'accuratezza dei grandi modelli linguistici in compiti di ragionamento strutturato come Event-QA, ma comporta costi e latenze elevati che spesso non giustificano i benefici in scenari più semplici come la generazione di risposte persuasive, evidenziando la necessità di scelte strategiche basate su costi e complessità del compito.

Subha Ghoshal, Ali Al-Bustami2026-03-06💻 cs