UAT-LITE: Inference-Time Uncertainty-Aware Attention for Pretrained Transformers

Il paper presenta UAT-LITE, un framework di inferenza che rende l'attenzione dei trasformatori preaddestrati consapevole dell'incertezza epistemica tramite dropout Monte Carlo, migliorando la calibrazione e la selezione delle predizioni senza modificare i pesi del modello o richiedere un addestramento aggiuntivo.

Elias Hossain, Shubhashis Roy Dipta, Subash Neupane, Rajib Rana, Ravid Shwartz-Ziv, Ivan Garibay, Niloofar Yousefi2026-03-11🤖 cs.AI

B-DENSE: Branching For Dense Ensemble Network Supervision Efficiency

Il paper propone B-DENSE, un nuovo framework che migliora l'efficienza dell'inferenza nei modelli di diffusione tramite allineamento denso di traiettorie multi-ramo, permettendo al modello studente di apprendere informazioni strutturali intermedie complete e ottenere una qualità di generazione superiore rispetto alle tecniche di distillazione esistenti.

Cherish Puniani, Tushar Kumar, Arnav Bendre, Gaurav Kumar, Shree Singhi2026-03-11🤖 cs.AI

Continual uncertainty learning

Questo studio propone un nuovo framework di apprendimento continuo basato su curriculum che, integrando un controllore basato su modello con l'apprendimento per rinforzo profondo, scompone il controllo robusto di sistemi meccanici non lineari con molteplici incertezze in una sequenza di compiti gestibili per garantire un trasferimento efficace dalla simulazione alla realtà senza dimenticare le conoscenze apprese.

Heisei Yonezawa, Ansei Yonezawa, Itsuro Kajiwara2026-03-11🤖 cs.AI

ReDON: Recurrent Diffractive Optical Neural Processor with Reconfigurable Self-Modulated Nonlinearity

Il documento presenta ReDON, una nuova architettura di processore ottico neurale ricorrente che supera i limiti delle reti diffrattive tradizionali integrando una non linearità auto-modulata riconfigurabile, ottenendo così significativi miglioramenti di accuratezza e adattabilità con un consumo energetico trascurabile.

Ziang Yin, Qi Jing, Raktim Sarma, Rena Huang, Yu Yao, Jiaqi Gu2026-03-11🔬 physics.optics

Breaking the Factorization Barrier in Diffusion Language Models

Il paper propone CoDD, un framework ibrido che supera la barriera della fattorizzazione nei modelli linguistici di diffusione sostituendo le distribuzioni completamente fattorizzate con un layer di inferenza probabilistica leggero, permettendo così di modellare dipendenze congiunte complesse e ottenere generazioni di alta qualità in pochi passi senza i costi computazionali eccessivi delle soluzioni RL.

Ian Li, Zilei Shao, Benjie Wang, Rose Yu, Guy Van den Broeck, Anji Liu2026-03-11🤖 cs.AI

Zero-Shot and Supervised Bird Image Segmentation Using Foundation Models: A Dual-Pipeline Approach with Grounding DINO~1.5, YOLOv11, and SAM~2.1

Questo articolo presenta un approccio a doppia pipeline per la segmentazione di immagini di uccelli basato su modelli fondazionali del 2025, che combina Grounding DINO 1.5 e YOLOv11 con SAM 2.1 per ottenere risultati di precisione superiore sia in modalità zero-shot che supervisionata, superando le reti di segmentazione tradizionali.

Abhinav Munagala2026-03-11🤖 cs.AI

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

Il paper introduce Pri4R, un approccio semplice ed efficace che potenzia i modelli Vision-Language-Action con una comprensione implicita delle dinamiche del mondo attraverso l'addestramento su rappresentazioni 4D privilegiate, migliorando significativamente le prestazioni nei compiti di manipolazione fisica senza aggiungere overhead computazionale durante l'inferenza.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong Kim2026-03-11🤖 cs.AI

Reasoning as Gradient: Scaling MLE Agents Beyond Tree Search

Il paper introduce \textsc{Gome}, un agente per l'ingegneria del machine learning che sostituisce la ricerca ad albero con l'ottimizzazione basata su gradienti, ottenendo risultati state-of-the-art su MLE-Bench e dimostrando che, man mano che le capacità di ragionamento dei modelli LLM migliorano, questo approccio supera progressivamente i metodi di esplorazione esaustiva.

Yifei Zhang, Xu Yang, Xiao Yang, Bowen Xian, Qizheng Li, Shikai Fang, Jingyuan Li, Jian Wang, Mingrui Xu, Weiqing Liu, Jiang Bian2026-03-11🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Il paper presenta FinTexTS, un nuovo dataset su larga scala che associa dati temporali finanziari a notizie testuali attraverso un framework di accoppiamento semantico e multilivello, superando i limiti dei metodi basati su parole chiave e migliorando le prestazioni di previsione dei prezzi azionari.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin Ahn2026-03-11🤖 cs.AI