Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Questo articolo di posizione sostiene che l'antropomorfizzazione dei token intermedi generati dai modelli linguistici come "tracce di ragionamento" è un concetto pericoloso che confonde la natura di questi sistemi e porta a ricerche fuorvianti, invitando la comunità a evitare tale terminologia.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Questo studio adotta un approccio centrato sulle vittime per analizzare come l'attuale governance sociotecnica dell'IA fallisca nel regolamentare l'"ecosistema tecnico malevolo" di modelli open-source e software che facilitano la creazione di immagini intime non consensuali generate dall'IA, evidenziando le carenze delle pratiche di governance attuali.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Il documento presenta FourierSpecNet, un framework ibrido che combina il metodo spettrale di Fourier con l'apprendimento profondo per approssimare efficientemente l'operatore di collisione nell'equazione di Boltzner, garantendo accuratezza, convergenza e una significativa riduzione dei costi computazionali sia per collisioni elastiche che anelastiche.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Il paper introduce i Reasoning Reward Models (ReasRMs), in particolare la famiglia RM-R1, che trasformano la modellazione delle ricompense in un compito di ragionamento tramite un meccanismo di "catena di rubriche" e un addestramento su due fasi, ottenendo prestazioni superiori rispetto a modelli proprietari e open-weight più grandi su diversi benchmark.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Software Development Life Cycle Perspective: A Survey of Benchmarks for Code Large Language Models and Agents

Questo studio propone un quadro di analisi a livelli per esaminare 178 benchmark di modelli linguistici e agenti per il codice, rivelando una significativa disparità nella copertura delle fasi del ciclo di vita del software (con un'enfasi eccessiva sull'implementazione e una scarsa attenzione alla progettazione e ai requisiti) e sottolineando la necessità di strategie anti-contaminazione per garantire valutazioni più robuste e pratiche.

Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Chong Wang, Weisong Sun, Yang Liu, Aishan Liu, Xianglong Liu, Chao Shen, Bin Shi2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

Il paper introduce ESGenius, il primo benchmark completo per valutare le capacità dei modelli linguistici di grandi dimensioni nelle conoscenze ESG e sulla sostenibilità, dimostrando che l'uso della generazione aumentata dal recupero (RAG) su un corpus curato di fonti autorevoli colma significativamente il divario di conoscenza rispetto alle prestazioni zero-shot.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

KramaBench: A Benchmark for AI Systems on Data-to-Insight Pipelines over Data Lakes

Il paper introduce KramaBench, un benchmark composto da 104 sfide curate manualmente per valutare le capacità end-to-end dei sistemi di intelligenza artificiale nell'orchestrare pipeline complesse per l'estrazione di insight da data lake, rivelando che le attuali soluzioni agentiche faticano a produrre flussi di lavoro funzionanti nonostante la loro efficacia in singoli compiti isolati.

Eugenie Lai, Gerardo Vitagliano, Ziyu Zhang, Om Chabra, Sivaprasad Sudhir, Anna Zeng, Anton A. Zabreyko, Chenning Li, Ferdi Kossmann, Jialin Ding, Jun Chen, Markos Markakis, Matthew Russo, Weiyang Wang, Ziniu Wu, Michael J. Cafarella, Lei Cao, Samuel Madden, Tim Kraska2026-03-09🤖 cs.AI

Discerning What Matters: A Multi-Dimensional Assessment of Moral Competence in LLMs

Questo studio propone un nuovo framework multidimensionale per valutare la competenza morale dei grandi modelli linguistici, rivelando che, sebbene superino gli umani in scenari etici predefiniti, falliscono significativamente nel discernere le informazioni rilevanti da quelle irrilevanti in contesti complessi, suggerendo che le attuali valutazioni sovrastimino le loro reali capacità di ragionamento morale.

Daniel Kilov, Caroline Hendy, Secil Yanik Guyot, Aaron J. Snoswell, Seth Lazar2026-03-09🤖 cs.AI

ContextBench: Modifying Contexts for Targeted Latent Activation

Il paper introduce ContextBench, un benchmark per valutare metodi di modifica del contesto volti ad attivare specifiche caratteristiche latenti nei modelli linguistici, e dimostra che varianti avanzate dell'ottimizzazione evolutiva dei prompt riescono a bilanciare efficacemente forza di attivazione e fluidità linguistica.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

Il paper presenta Sysformer, un approccio innovativo che protegge i grandi modelli linguistici (LLM) congelati adattando dinamicamente i prompt di sistema tramite un modello trasformatore, migliorando significativamente la robustezza contro gli attacchi dannosi e la conformità alle richieste sicure senza richiedere un costoso riaddestramento dei parametri del modello.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

Iterative Quantum Feature Maps

Il documento propone le Iterative Quantum Feature Maps (IQFMs), un framework ibrido quantistico-classico che costruisce architetture profonde collegando iterativamente mappe di feature quantistiche superficiali con pesi di aumento calcolati classicamente, riducendo così i tempi di esecuzione quantistica e mitigando gli effetti del rumore senza richiedere l'ottimizzazione di parametri quantistici variazionali.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka Oshima2026-03-09⚛️ quant-ph

SPARC: Concept-Aligned Sparse Autoencoders for Cross-Model and Cross-Modal Interpretability

Il paper introduce SPARC, un framework che utilizza autoencoder sparsi allineati per creare uno spazio latente unificato che permette di interpretare e confrontare direttamente concetti ad alto livello tra modelli e modalità diverse, migliorando drasticamente l'allineamento concettuale e abilitando nuove applicazioni come la localizzazione spaziale guidata dal testo.

Ali Nasiri-Sarvi, Hassan Rivaz, Mahdi S. Hosseini2026-03-09🤖 cs.AI