Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Questo studio analizza i limiti dei modelli linguistici nella generazione automatica di patch di sicurezza per vulnerabilità Java, rivelando che, sebbene preservino spesso la funzionalità, falliscono prevalentemente nel comprendere la semantica corretta delle riparazioni, ottenendo un basso punteggio di sicurezza che ne richiede una validazione rigorosa prima del dispiegamento.

Amir Al-Maamari2026-03-12🤖 cs.AI

Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

Il paper propone l'Esecuzione Consapevole della Sopravvivenza (SAE), un middleware che protegge i sistemi di trading crypto agenziali basati su OpenClaw e skill esterne, trasformando l'esecuzione in un nuovo punto di attacco da difendere attraverso vincoli ineludibili che riducono drasticamente il rischio di perdita e migliorano la resilienza contro manipolazioni e supply chain compromesse.

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia Pidturkina2026-03-12🤖 cs.AI

CLIPO: Contrastive Learning in Policy Optimization Generalizes RLVR

Il paper presenta CLIPO, un metodo che integra l'apprendimento contrastivo nell'ottimizzazione della politica per generalizzare il Reinforcement Learning con Ricompense Verificabili (RLVR), correggendo le allucinazioni e migliorando la robustezza dei modelli linguistici grandi (LLM) garantendo la coerenza dei passaggi intermedi di ragionamento oltre alla sola correttezza della risposta finale.

Sijia Cui, Pengyu Cheng, Jiajun Song, Yongbo Gai, Guojun Zhang, Zhechao Yu, Jianhe Lin, Xiaoxi Jiang, Guanjun Jiang2026-03-12🤖 cs.LG

AR-VLA: True Autoregressive Action Expert for Vision-Language-Action Models

Il paper propone AR-VLA, un esperto di azioni autoregressivo autonomo che, grazie a una memoria a lungo termine e a un meccanismo di riancoraggio, genera azioni continue e coerenti nel tempo superando i limiti di frequenza e coerenza dei modelli VLA reattivi esistenti, ottenendo risultati superiori in compiti di manipolazione robotica.

Yutong Hu, Jan-Nico Zaech, Nikolay Nikolov, Yuanqi Yao, Sombit Dey, Giuliano Albanese, Renaud Detry, Luc Van Gool, Danda Paudel2026-03-12🤖 cs.AI

The Generation-Recognition Asymmetry: Six Dimensions of a Fundamental Divide in Formal Language Theory

Questo articolo individua sei dimensioni fondamentali, tra cui due nuove (direzionalità e temporalità), che rivelano l'asimmetria operativa tra generazione e riconoscimento nella teoria dei linguaggi formali, sfatando il mito che la generazione sia intrinsecamente semplice e collegando tale asimmetria temporale al framework della sorpresa, anche nel contesto dei moderni modelli linguistici.

Romain Peyrichou2026-03-12💬 cs.CL