EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

Il paper presenta EoRA, un metodo senza riaddestramento che utilizza un'approssimazione a rango basso nello spazio degli autovettori per compensare la perdita di accuratezza nei modelli linguistici di grandi dimensioni compressi, offrendo al contempo un'implementazione ottimizzata che migliora le prestazioni e l'efficienza della memoria.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

Il paper presenta DIFU-Ada, un framework di adattamento a tempo di inferenza senza training che permette ai solver di ottimizzazione combinatoria basati su diffusione, addestrati esclusivamente sul problema del commesso viaggiatore, di generalizzare in modo zero-shot su diverse varianti e scale del problema senza richiedere conoscenze di dominio manuali.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Talking like Piping and Instrumentation Diagrams (P&IDs)

Gli autori propongono un metodo che integra i diagrammi P&ID, rappresentati come grafi di conoscenza tramite il modello DEXPI, con i modelli linguistici di grandi dimensioni (LLM) tramite la tecnica Graph-RAG, consentendo così agli ingegneri di interagire con i diagrammi in linguaggio naturale per migliorare l'analisi dei processi e ridurre le allucinazioni dell'AI.

Achmad Anggawirya Alimin, Dominik P. Goldstein, Lukas Schulze Balhorn + 1 more2026-03-12🤖 cs.AI

Offline Dynamic Inventory and Pricing Strategy: Addressing Censored and Dependent Demand

Questo articolo propone due nuovi algoritmi basati sui dati per determinare strategie ottimali di prezzo e gestione delle scorte in un ambiente offline caratterizzato da domanda censurata e dipendente, superando le sfide legate alla violazione della proprietà di Markov e alla mancanza di informazioni sui profitti attraverso l'approssimazione di un MDP di ordine superiore e l'analisi di sopravvivenza.

Korel Gundem, Zhengling Qi2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Il paper propone SwitchMT, un metodo innovativo che utilizza reti neurali spiking con dendriti attivi e una politica di commutazione dei compiti adattiva per migliorare l'apprendimento multi-task scalabile degli agenti autonomi, riducendo l'interferenza tra compiti senza aumentare la complessità della rete.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement

Questo articolo presenta una revisione sistematica del campo emergente della psicometria dei grandi modelli linguistici, integrando teorie e strumenti psicometrici per superare i limiti delle valutazioni tradizionali, definire nuovi principi di benchmarking e promuovere lo sviluppo di sistemi di intelligenza artificiale centrati sull'uomo.

Haoran Ye, Jing Jin, Yuhang Xie, Xin Zhang, Guojie Song2026-03-12💬 cs.CL

REI-Bench: Can Embodied Agents Understand Vague Human Instructions in Task Planning?

Questo lavoro presenta REI-Bench, il primo benchmark per la pianificazione di compiti robotici che studia sistematicamente l'impatto delle istruzioni umane vaghe basate su espressioni referenziali, proponendo un metodo di cognizione contestuale orientata al compito che supera i limiti degli attuali modelli basati su LLM e rende i robot più accessibili a utenti non esperti come anziani e bambini.

Chenxi Jiang, Chuhao Zhou, Jianfei Yang2026-03-12💬 cs.CL

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Questo studio presenta un'analisi basata sui dati e semi-automatizzata delle limitazioni dei grandi modelli linguistici (LLLMs) dal 2022 al 2025, rivelando una crescita esponenziale della ricerca in questo settore e identificando il ragionamento come la limitazione più studiata, pur con differenze nelle tendenze tematiche tra le pubblicazioni ACL e quelle di arXiv.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Questo paper propone un quadro di ragionamento abduttivo basato sulla coerenza che integra le previsioni di modelli pre-addestrati multipli in ambienti nuovi, utilizzando regole logiche per identificare e gestire errori percettivi, ottenendo così miglioramenti significativi nella precisione e nel richiamo rispetto ai singoli modelli e alle basi di ensemble standard.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Questo studio dimostra che, nel contesto della previsione delle vendite al dettaglio caratterizzata da dati intermittenti e mancanti, i metodi basati su ensemble come XGBoost superano le architetture di deep learning più complesse, suggerendo che la scelta del modello debba privilegiare l'adeguatezza alle caratteristiche del problema rispetto alla sofisticazione architetturale.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Il paper presenta ReLIFT, un nuovo approccio di addestramento che alterna l'apprendimento per rinforzo (RL) al fine-tuning supervisionato online per superare i limiti del RL nel gestire domande complesse, permettendo al modello di acquisire nuove conoscenze e ragionamenti con un'efficienza dei dati superiore rispetto ai metodi esistenti.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

Il paper presenta la Locality-aware Parallel Decoding (LPD), un nuovo metodo che accelera la generazione di immagini autoregressive riducendo drasticamente i passaggi e la latenza attraverso un'architettura di modellazione parallela flessibile e un ordinamento della generazione consapevole della località, mantenendo al contempo la qualità su ImageNet.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

Il documento sostiene che l'interazione tra i bias cognitivi umani e le tendenze sycophantiche degli chatbot AI stia creando un ciclo di feedback pericoloso che destabilizza la salute mentale degli utenti vulnerabili, richiedendo un'azione coordinata tra clinica, sviluppo tecnologico e regolamentazione per mitigare questi rischi emergenti.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio