Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Questo lavoro propone un framework di riscrittura stilistica strutturata che, disaccoppiando il lessico, la sintassi e la pragmatica e utilizzando una distillazione del ragionamento esplicito per il condizionamento implicito, permette a piccoli modelli linguistici di generare personaggi altamente stilizzati con una coerenza superiore rispetto a modelli più grandi, pur operando in scenari con risorse limitate.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Il paper presenta modelli interpretabili che integrano tratti psicologici individuali e contesti situazionali, derivati da dati social media e teorie psicologiche, per prevedere il benessere mentale e identificare stati di sé adattivi o maladattivi, dimostrando che gli approcci basati sulla teoria offrono prestazioni competitive e maggiore trasparenza rispetto alle sole rappresentazioni vettoriali dei modelli linguistici.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

Il paper propone l'OMGD, un metodo di ottimizzazione efficiente in memoria basato sulla traversata di maschere che garantisce una complessità di iterazione migliorata di O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) per l'addestramento di modelli linguistici su larga scala, offrendo al contempo prestazioni superiori rispetto ai metodi esistenti.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG

Preventing Learning Stagnation in PPO by Scaling to 1 Million Parallel Environments

Il paper dimostra che lo stagnamento dell'apprendimento in PPO è causato da un disallineamento tra la dimensione del passo e il rumore del gradiente, e risolve il problema scalando a oltre un milione di ambienti paralleli, permettendo un miglioramento monotono delle prestazioni fino a un trilione di transizioni.

Michael Beukman, Khimya Khetarpal, Zeyu Zheng, Will Dabney, Jakob Foerster, Michael Dennis, Clare Lyle2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Questo lavoro migliora i limiti superiori noti per l'apprendimento agnostico di classi di concetti rispetto alla misura gaussiana, dimostrando che un'approssimazione polinomiale di grado O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) è sufficiente per ottenere una precisione ε\varepsilon, ottenendo così limiti (quasi) ottimali per l'apprendimento di funzioni soglia polinomiali nel modello delle query statistiche.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

DQE: A Semantic-Aware Evaluation Metric for Time Series Anomaly Detection

Questo lavoro propone DQE, una nuova metrica di valutazione per il rilevamento di anomalie nelle serie temporali che, superando i limiti degli approcci esistenti attraverso una partizione semantica delle anomalie e un'aggregazione su tutto lo spettro delle soglie, garantisce una valutazione più stabile, discriminativa e interpretabile.

Yuewei Li, Dalin Zhang, Huan Li, Xinyi Gong, Hongjun Chu, Zhaohui Song2026-03-09🤖 cs.LG

Ensemble Graph Neural Networks for Probabilistic Sea Surface Temperature Forecasting via Input Perturbations

Questo studio dimostra che l'uso di perturbazioni d'ingresso strutturate spazialmente, come il rumore di Perlin, all'interno di un ensemble di Graph Neural Networks permette di generare previsioni probabilistiche affidabili della temperatura superficiale del mare senza costi di addestramento aggiuntivi, migliorando la calibrazione dell'incertezza rispetto a perturbazioni puramente casuali.

Alejandro J. González-Santana, Giovanny A. Cuervo-Londoño, Javier Sánchez2026-03-09🤖 cs.AI

Efficient Vector Search in the Wild: One Model for Multi-K Queries

Il paper presenta OMEGA, un metodo di ricerca appresa top-K generalizzabile a diverse dimensioni K che, addestrato principalmente su K=1 con caratteristiche basate su traiettorie e un procedimento di raffinamento dinamico, supera i metodi esistenti offrendo minore latenza e costi di pre-elaborazione ridotti senza compromettere l'accuratezza.

Yifan Peng, Jiafei Fan, Xingda Wei, Sijie Shen, Rong Chen, Jianning Wang, Xiaojian Luo, Wenyuan Yu, Jingren Zhou, Haibo Chen2026-03-09🤖 cs.LG

Contrastive-to-Self-Supervised: A Two-Stage Framework for Script Similarity Learning

Il documento propone un framework a due stadi che combina l'apprendimento contrastivo supervisionato su alfabeti inventati con la distillazione da insegnante a studente per apprendere metriche di similarità tra sistemi di scrittura storici, permettendo sia la distinzione netta tra sistemi diversi che l'identificazione di somiglianze latenti senza richiedere relazioni evolutive verificate.

Claire Roman, Philippe Meyer2026-03-09🤖 cs.AI

Topological descriptors of foot clearance gait dynamics improve differential diagnosis of Parkinsonism

Lo studio dimostra che l'integrazione dell'Analisi Topologica dei Dati con l'apprendimento automatico sui dati di clearance del piede migliora l'accuratezza della diagnosi differenziale tra malattia di Parkinson idiopatica e parkinsonismo vascolare, superando i limiti dei metodi gait analysis convenzionali.

Jhonathan Barrios, Wolfram Erlhagen, Miguel F. Gago, Estela Bicho, Flora Ferreira2026-03-09🤖 cs.LG