Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Questo studio esamina l'impatto del collasso degli embedding nel Prompt-Tuning, dimostrando che l'uso di priors di embedding permette un controllo efficace sulle posizioni degli embedding e rivela che le traiettorie generate formano cluster distinti per compiti diversi, suggerendo che la generalizzazione dei modelli linguistici non dipende necessariamente da un unico cluster di attivazione.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Questo lavoro propone un metodo che sfrutta modelli visione-linguaggio preaddestrati per apprendere modelli del mondo simbolici astratti da dimostrazioni brevi, consentendo a sistemi robotici di pianificare e risolvere compiti decisionali a lungo termine con una generalizzazione zero-shot in scenari complessi e non visti in precedenza.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

General Coded Computing in a Probabilistic Straggler Regime

Questo articolo analizza teoricamente e sperimentalmente la convergenza dell'errore di approssimazione verso zero in due schemi di calcolo codificato generale (BACC e LeTCC) in presenza di un regime probabilistico di server lenti, dimostrando che l'indipendenza delle interruzioni permette di ottenere risultati precisi anche quando il numero medio di server lenti scala con la dimensione totale del sistema.

Parsa Moradi, Mohammad Ali Maddah-Ali2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Questo studio analizza la sicurezza e la qualità del codice generato da modelli linguistici su diverse lingue di programmazione, rivelando che, sebbene l'automazione sia efficace, molti modelli non adottano le moderne funzionalità di sicurezza e ricorrono ancora a metodi obsoleti, sottolineando la necessità di migliorare gli LLM per integrare le migliori pratiche emergenti.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Controllable Sequence Editing for Biological and Clinical Trajectories

Il paper presenta CLEF, un modello di generazione condizionale che supera i limiti delle metodologie esistenti consentendo l'editing controllato e mirato di traiettorie sequenziali biologiche e cliniche, modificando specifiche variabili a partire da un momento temporale definito per generare scenari controfattuali realistici.

Michelle M. Li, Kevin Li, Yasha Ektefaie, Ying Jin, Yepeng Huang, Shvat Messica, Tianxi Cai, Marinka Zitnik2026-03-10🤖 cs.LG

Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative

Il paper propone il framework "Texts as Time Series" (TaTS), che sfrutta le proprietà periodiche dei testi associati alle serie temporali come variabili ausiliarie per potenziare le prestazioni di modelli esistenti nelle previsioni e nell'imputazione multimodale senza modificare le loro architetture.

Zihao Li, Xiao Lin, Zhining Liu, Jiaru Zou, Ziwei Wu, Lecheng Zheng, Dongqi Fu, Yada Zhu, Hendrik Hamann, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization

Il paper presenta OrthoGrad, un nuovo metodo di disapprendimento automatico che proietta i gradienti dei dati da rimuovere nello spazio ortogonale ai gradienti di un piccolo insieme di dati di ritenzione, permettendo così di eliminare concetti specifici senza compromettere le prestazioni del modello anche quando l'intero dataset di addestramento non è disponibile.

Aviv Shamsian, Eitan Shaar, Aviv Navon, Gal Chechik, Ethan Fetaya2026-03-10🤖 cs.LG

LLM-Powered Prediction of Hyperglycemia and Discovery of Behavioral Treatment Pathways from Wearables and Diet

Il paper presenta GlucoLens, un sistema di intelligenza artificiale spiegabile che utilizza dati provenienti da dispositivi indossabili e diete per prevedere l'iperglicemia postprandiale e suggerire percorsi di trattamento comportamentale personalizzati, ottenendo prestazioni superiori rispetto ai modelli esistenti.

Abdullah Mamun, Asiful Arefeen, Susan B. Racette + 4 more2026-03-10🤖 cs.AI