Offline Dynamic Inventory and Pricing Strategy: Addressing Censored and Dependent Demand

Questo articolo propone due nuovi algoritmi basati sui dati per determinare strategie ottimali di prezzo e gestione delle scorte in un ambiente offline caratterizzato da domanda censurata e dipendente, superando le sfide legate alla violazione della proprietà di Markov e alla mancanza di informazioni sui profitti attraverso l'approssimazione di un MDP di ordine superiore e l'analisi di sopravvivenza.

Korel Gundem, Zhengling Qi2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Il paper propone SwitchMT, un metodo innovativo che utilizza reti neurali spiking con dendriti attivi e una politica di commutazione dei compiti adattiva per migliorare l'apprendimento multi-task scalabile degli agenti autonomi, riducendo l'interferenza tra compiti senza aumentare la complessità della rete.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement

Questo articolo presenta una revisione sistematica del campo emergente della psicometria dei grandi modelli linguistici, integrando teorie e strumenti psicometrici per superare i limiti delle valutazioni tradizionali, definire nuovi principi di benchmarking e promuovere lo sviluppo di sistemi di intelligenza artificiale centrati sull'uomo.

Haoran Ye, Jing Jin, Yuhang Xie, Xin Zhang, Guojie Song2026-03-12💬 cs.CL

REI-Bench: Can Embodied Agents Understand Vague Human Instructions in Task Planning?

Questo lavoro presenta REI-Bench, il primo benchmark per la pianificazione di compiti robotici che studia sistematicamente l'impatto delle istruzioni umane vaghe basate su espressioni referenziali, proponendo un metodo di cognizione contestuale orientata al compito che supera i limiti degli attuali modelli basati su LLM e rende i robot più accessibili a utenti non esperti come anziani e bambini.

Chenxi Jiang, Chuhao Zhou, Jianfei Yang2026-03-12💬 cs.CL

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Questo studio presenta un'analisi basata sui dati e semi-automatizzata delle limitazioni dei grandi modelli linguistici (LLLMs) dal 2022 al 2025, rivelando una crescita esponenziale della ricerca in questo settore e identificando il ragionamento come la limitazione più studiata, pur con differenze nelle tendenze tematiche tra le pubblicazioni ACL e quelle di arXiv.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Questo paper propone un quadro di ragionamento abduttivo basato sulla coerenza che integra le previsioni di modelli pre-addestrati multipli in ambienti nuovi, utilizzando regole logiche per identificare e gestire errori percettivi, ottenendo così miglioramenti significativi nella precisione e nel richiamo rispetto ai singoli modelli e alle basi di ensemble standard.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Questo studio dimostra che, nel contesto della previsione delle vendite al dettaglio caratterizzata da dati intermittenti e mancanti, i metodi basati su ensemble come XGBoost superano le architetture di deep learning più complesse, suggerendo che la scelta del modello debba privilegiare l'adeguatezza alle caratteristiche del problema rispetto alla sofisticazione architetturale.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Il paper presenta ReLIFT, un nuovo approccio di addestramento che alterna l'apprendimento per rinforzo (RL) al fine-tuning supervisionato online per superare i limiti del RL nel gestire domande complesse, permettendo al modello di acquisire nuove conoscenze e ragionamenti con un'efficienza dei dati superiore rispetto ai metodi esistenti.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

Il paper presenta la Locality-aware Parallel Decoding (LPD), un nuovo metodo che accelera la generazione di immagini autoregressive riducendo drasticamente i passaggi e la latenza attraverso un'architettura di modellazione parallela flessibile e un ordinamento della generazione consapevole della località, mantenendo al contempo la qualità su ImageNet.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

Il documento sostiene che l'interazione tra i bias cognitivi umani e le tendenze sycophantiche degli chatbot AI stia creando un ciclo di feedback pericoloso che destabilizza la salute mentale degli utenti vulnerabili, richiedendo un'azione coordinata tra clinica, sviluppo tecnologico e regolamentazione per mitigare questi rischi emergenti.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio

Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Questo articolo analizza per la prima volta i rischi di privacy legati alla cache KV nell'inferenza dei grandi modelli linguistici, dimostrando come sia possibile ricostruire input sensibili e proponendo KV-Cloak, un meccanismo di difesa leggero ed efficiente che neutralizza tali minacce senza compromettere accuratezza o prestazioni.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan Qin2026-03-12💬 cs.CL

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Questo articolo introduce l'Ambiente di Apprendimento Yokai (YLE), un nuovo benchmark open-source per il coordinamento a zero-shot che supera i limiti dell'ambiente Hanabi richiedendo agli agenti di costruire un terreno comune attraverso il ragionamento su credenze dinamiche e informazioni ambigue, rivelando così che i metodi all'avanguardia falliscono nel mantenere modelli interni coerenti con partner sconosciuti.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

From Next Token Prediction to (STRIPS) World Models

Questo studio dimostra che sia modelli simbolici allineati (STRIPS Transformer) sia architetture transformer standard con meccanismi di attenzione specifici (stick-breaking) possono apprendere modelli del mondo da tracce di azioni per supportare la pianificazione, sebbene i transformer standard mostrino una migliore ottimizzazione e generalizzazione rispetto alle controparti simboliche.

Carlos Núñez-Molina, Vicenç Gómez, Hector Geffner2026-03-12🤖 cs.AI

Global Minimizers of Sigmoid Contrastive Loss

Questo articolo analizza teoricamente i minimi globali della funzione di perdita contrastiva sigmoide, introducendo le "costellazioni" come nuova struttura combinatoria per spiegare il successo dei modelli SigLIP, il fenomeno del divario modale e l'importanza della sincronizzazione di temperatura e bias, proponendo inoltre una riparametrizzazione che migliora la dinamica di addestramento.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG