Optimizing Locomotor Task Sets in Biological Joint Moment Estimation for Hip Exoskeleton Applications

Questo studio introduce una strategia di ottimizzazione dei set di compiti locomotori che, attraverso l'analisi di clustering delle caratteristiche biomeccaniche, riduce significativamente il carico di raccolta dati necessario per addestrare modelli di deep learning, mantenendo al contempo un'accuratezza elevata nella stima dei momenti articolari dell'anca per il controllo degli esoscheletri.

Jimin An, Changseob Song, Eni Halilaj + 1 more2026-03-10🤖 cs.LG

Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Questo studio esamina l'impatto del collasso degli embedding nel Prompt-Tuning, dimostrando che l'uso di priors di embedding permette un controllo efficace sulle posizioni degli embedding e rivela che le traiettorie generate formano cluster distinti per compiti diversi, suggerendo che la generalizzazione dei modelli linguistici non dipende necessariamente da un unico cluster di attivazione.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Questo lavoro propone un metodo che sfrutta modelli visione-linguaggio preaddestrati per apprendere modelli del mondo simbolici astratti da dimostrazioni brevi, consentendo a sistemi robotici di pianificare e risolvere compiti decisionali a lungo termine con una generalizzazione zero-shot in scenari complessi e non visti in precedenza.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

General Coded Computing in a Probabilistic Straggler Regime

Questo articolo analizza teoricamente e sperimentalmente la convergenza dell'errore di approssimazione verso zero in due schemi di calcolo codificato generale (BACC e LeTCC) in presenza di un regime probabilistico di server lenti, dimostrando che l'indipendenza delle interruzioni permette di ottenere risultati precisi anche quando il numero medio di server lenti scala con la dimensione totale del sistema.

Parsa Moradi, Mohammad Ali Maddah-Ali2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Questo studio analizza la sicurezza e la qualità del codice generato da modelli linguistici su diverse lingue di programmazione, rivelando che, sebbene l'automazione sia efficace, molti modelli non adottano le moderne funzionalità di sicurezza e ricorrono ancora a metodi obsoleti, sottolineando la necessità di migliorare gli LLM per integrare le migliori pratiche emergenti.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Controllable Sequence Editing for Biological and Clinical Trajectories

Il paper presenta CLEF, un modello di generazione condizionale che supera i limiti delle metodologie esistenti consentendo l'editing controllato e mirato di traiettorie sequenziali biologiche e cliniche, modificando specifiche variabili a partire da un momento temporale definito per generare scenari controfattuali realistici.

Michelle M. Li, Kevin Li, Yasha Ektefaie, Ying Jin, Yepeng Huang, Shvat Messica, Tianxi Cai, Marinka Zitnik2026-03-10🤖 cs.LG

Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative

Il paper propone il framework "Texts as Time Series" (TaTS), che sfrutta le proprietà periodiche dei testi associati alle serie temporali come variabili ausiliarie per potenziare le prestazioni di modelli esistenti nelle previsioni e nell'imputazione multimodale senza modificare le loro architetture.

Zihao Li, Xiao Lin, Zhining Liu, Jiaru Zou, Ziwei Wu, Lecheng Zheng, Dongqi Fu, Yada Zhu, Hendrik Hamann, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG