FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Il paper introduce FragFM, un nuovo framework gerarchico basato sul flow matching discreto a livello di frammenti che, grazie a un autoencoder da grossolano a fine e a una strategia stocastica, genera molecole in modo efficiente e scalabile con un migliore controllo delle proprietà, validato anche su un nuovo benchmark per prodotti naturali chiamato NPGen.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment

Il paper presenta FindAnything, un framework di mappatura open-vocabulary che integra informazioni visive e linguistiche in sottomappe volumetriche centrate sugli oggetti, consentendo una comprensione semantica efficiente e scalabile in tempo reale anche su dispositivi con risorse limitate come i MAV.

Sebastián Barbas Laina, Simon Boche, Sotiris Papatheodorou, Simon Schaefer, Jaehyung Jung, Helen Oleynikova, Stefan Leutenegger2026-03-09🤖 cs.AI

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Questo studio controllato rivela che, sebbene i modelli linguistici di grandi dimensioni (LLM) mostrino una certa promessa per le previsioni delle serie temporali, le loro prestazioni rimangono limitate e non superano costantemente quelle di modelli specificamente addestrati su grandi dataset temporali, specialmente quando si utilizzano coppie di tokenizzatori e detokenizzatori non distorti ottenuti tramite pre-addestramento su larga scala.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Questo articolo di posizione sostiene che l'antropomorfizzazione dei token intermedi generati dai modelli linguistici come "tracce di ragionamento" è un concetto pericoloso che confonde la natura di questi sistemi e porta a ricerche fuorvianti, invitando la comunità a evitare tale terminologia.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Questo studio adotta un approccio centrato sulle vittime per analizzare come l'attuale governance sociotecnica dell'IA fallisca nel regolamentare l'"ecosistema tecnico malevolo" di modelli open-source e software che facilitano la creazione di immagini intime non consensuali generate dall'IA, evidenziando le carenze delle pratiche di governance attuali.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Il documento presenta FourierSpecNet, un framework ibrido che combina il metodo spettrale di Fourier con l'apprendimento profondo per approssimare efficientemente l'operatore di collisione nell'equazione di Boltzner, garantendo accuratezza, convergenza e una significativa riduzione dei costi computazionali sia per collisioni elastiche che anelastiche.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Il paper introduce i Reasoning Reward Models (ReasRMs), in particolare la famiglia RM-R1, che trasformano la modellazione delle ricompense in un compito di ragionamento tramite un meccanismo di "catena di rubriche" e un addestramento su due fasi, ottenendo prestazioni superiori rispetto a modelli proprietari e open-weight più grandi su diversi benchmark.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Software Development Life Cycle Perspective: A Survey of Benchmarks for Code Large Language Models and Agents

Questo studio propone un quadro di analisi a livelli per esaminare 178 benchmark di modelli linguistici e agenti per il codice, rivelando una significativa disparità nella copertura delle fasi del ciclo di vita del software (con un'enfasi eccessiva sull'implementazione e una scarsa attenzione alla progettazione e ai requisiti) e sottolineando la necessità di strategie anti-contaminazione per garantire valutazioni più robuste e pratiche.

Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Chong Wang, Weisong Sun, Yang Liu, Aishan Liu, Xianglong Liu, Chao Shen, Bin Shi2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

Il paper introduce ESGenius, il primo benchmark completo per valutare le capacità dei modelli linguistici di grandi dimensioni nelle conoscenze ESG e sulla sostenibilità, dimostrando che l'uso della generazione aumentata dal recupero (RAG) su un corpus curato di fonti autorevoli colma significativamente il divario di conoscenza rispetto alle prestazioni zero-shot.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

KramaBench: A Benchmark for AI Systems on Data-to-Insight Pipelines over Data Lakes

Il paper introduce KramaBench, un benchmark composto da 104 sfide curate manualmente per valutare le capacità end-to-end dei sistemi di intelligenza artificiale nell'orchestrare pipeline complesse per l'estrazione di insight da data lake, rivelando che le attuali soluzioni agentiche faticano a produrre flussi di lavoro funzionanti nonostante la loro efficacia in singoli compiti isolati.

Eugenie Lai, Gerardo Vitagliano, Ziyu Zhang, Om Chabra, Sivaprasad Sudhir, Anna Zeng, Anton A. Zabreyko, Chenning Li, Ferdi Kossmann, Jialin Ding, Jun Chen, Markos Markakis, Matthew Russo, Weiyang Wang, Ziniu Wu, Michael J. Cafarella, Lei Cao, Samuel Madden, Tim Kraska2026-03-09🤖 cs.AI

Discerning What Matters: A Multi-Dimensional Assessment of Moral Competence in LLMs

Questo studio propone un nuovo framework multidimensionale per valutare la competenza morale dei grandi modelli linguistici, rivelando che, sebbene superino gli umani in scenari etici predefiniti, falliscono significativamente nel discernere le informazioni rilevanti da quelle irrilevanti in contesti complessi, suggerendo che le attuali valutazioni sovrastimino le loro reali capacità di ragionamento morale.

Daniel Kilov, Caroline Hendy, Secil Yanik Guyot, Aaron J. Snoswell, Seth Lazar2026-03-09🤖 cs.AI