Transforming Agency. On the mode of existence of Large Language Models

Il paper sostiene che i Large Language Models, pur non possedendo un'agenzia autonoma secondo le teorie della mente incarnata a causa della mancanza di individualità, normatività e asimmetria interazionale, agiscono come interlocutori linguistici che, attraverso un'incarnazione testuale e computazionale, trasformano radicalmente l'agenzia umana generando forme ibride di "agenzia di mezzo".

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

Il paper introduce FALCON, un approccio di preaddestramento auto-supervisionato unificato per il riconoscimento delle azioni dei droni che, integrando la mascheratura orientata agli oggetti e la ricostruzione futura a doppio orizzonte, risolve lo squilibrio spaziale tipico dei video aerei migliorando significativamente l'accuratezza e riducendo i tempi di inferenza rispetto ai metodi supervisionati.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

SpecFuse: Ensembling Large Language Models via Next-Segment Prediction

Il paper presenta SpecEM, un framework di ensemble per modelli linguistici di grandi dimensioni (LLM) senza addestramento che combina la previsione di segmenti successivi ispirata allo speculative decoding con un meccanismo di feedback online per adattare dinamicamente i pesi dei modelli, ottenendo così prestazioni superiori rispetto ai metodi esistenti su diverse famiglie di LLM e benchmark.

Bo Lv, Nayu Liu, Chen Tang, Xin Liu, Yue Yu, Ping Luo2026-03-09🤖 cs.AI

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Questo sondaggio offre una panoramica strutturata delle tecniche, dei dataset e delle sfide etiche legate all'uso dei modelli linguistici su larga scala per assistere i ricercatori in tutte le fasi del ciclo di vita scientifico, dalla scoperta alla valutazione.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

Generative Predictive Control: Flow Matching Policies for Dynamic and Difficult-to-Demonstrate Tasks

Questo articolo introduce il controllo predittivo generativo, un framework di apprendimento supervisionato che combina il controllo predittivo basato su campionamento e la modellazione generativa per addestrare politiche di flusso di matching su compiti dinamici difficili da dimostrare, permettendo l'uso di dati simulati e garantendo feedback ad alta frequenza.

Vince Kurtz, Joel W. Burdick2026-03-09🤖 cs.AI

FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Il paper introduce FragFM, un nuovo framework gerarchico basato sul flow matching discreto a livello di frammenti che, grazie a un autoencoder da grossolano a fine e a una strategia stocastica, genera molecole in modo efficiente e scalabile con un migliore controllo delle proprietà, validato anche su un nuovo benchmark per prodotti naturali chiamato NPGen.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment

Il paper presenta FindAnything, un framework di mappatura open-vocabulary che integra informazioni visive e linguistiche in sottomappe volumetriche centrate sugli oggetti, consentendo una comprensione semantica efficiente e scalabile in tempo reale anche su dispositivi con risorse limitate come i MAV.

Sebastián Barbas Laina, Simon Boche, Sotiris Papatheodorou, Simon Schaefer, Jaehyung Jung, Helen Oleynikova, Stefan Leutenegger2026-03-09🤖 cs.AI

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Questo studio controllato rivela che, sebbene i modelli linguistici di grandi dimensioni (LLM) mostrino una certa promessa per le previsioni delle serie temporali, le loro prestazioni rimangono limitate e non superano costantemente quelle di modelli specificamente addestrati su grandi dataset temporali, specialmente quando si utilizzano coppie di tokenizzatori e detokenizzatori non distorti ottenuti tramite pre-addestramento su larga scala.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Questo articolo di posizione sostiene che l'antropomorfizzazione dei token intermedi generati dai modelli linguistici come "tracce di ragionamento" è un concetto pericoloso che confonde la natura di questi sistemi e porta a ricerche fuorvianti, invitando la comunità a evitare tale terminologia.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Questo studio adotta un approccio centrato sulle vittime per analizzare come l'attuale governance sociotecnica dell'IA fallisca nel regolamentare l'"ecosistema tecnico malevolo" di modelli open-source e software che facilitano la creazione di immagini intime non consensuali generate dall'IA, evidenziando le carenze delle pratiche di governance attuali.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Il documento presenta FourierSpecNet, un framework ibrido che combina il metodo spettrale di Fourier con l'apprendimento profondo per approssimare efficientemente l'operatore di collisione nell'equazione di Boltzner, garantendo accuratezza, convergenza e una significativa riduzione dei costi computazionali sia per collisioni elastiche che anelastiche.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Il paper introduce i Reasoning Reward Models (ReasRMs), in particolare la famiglia RM-R1, che trasformano la modellazione delle ricompense in un compito di ragionamento tramite un meccanismo di "catena di rubriche" e un addestramento su due fasi, ottenendo prestazioni superiori rispetto a modelli proprietari e open-weight più grandi su diversi benchmark.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI