Unpacking Human Preference for LLMs: Demographically Aware Evaluation with the HUMAINE Framework

Questo studio introduce il framework HUMAINE, che attraverso un'analisi multidimensionale di oltre 23.000 conversazioni con utenti demograficamente stratificati, rivela come le preferenze per i modelli linguistici varino significativamente in base all'età e dimostri la necessità di abbandonare le valutazioni riduzioniste a favore di approcci più rappresentativi e granulari.

Nora Petrova, Andrew Gordon, Enzo Blindow2026-03-06💻 cs

One Size Does Not Fit All: Token-Wise Adaptive Compression for KV Cache

Il paper presenta DynaKV, un innovativo framework di post-addestramento per la compressione del cache KV che assegna dinamicamente tassi di compressione a livello di token in base al loro significato semantico, ottenendo così una riduzione significativa della memoria e prestazioni superiori rispetto alle tecniche esistenti, specialmente se combinato con metodi di pruning come SnapKV.

Liming Lu, Kaixi Qiu, Jiayu Zhou + 6 more2026-03-06💻 cs

Simulating Meaning, Nevermore! Introducing ICR: A Semiotic-Hermeneutic Metric for Evaluating Meaning in LLM Text Summaries

Questo articolo introduce l'Inductive Conceptual Rating (ICR), una metrica qualitativa basata su semiotica ed ermeneutica per valutare l'allineamento semantico dei riassunti generati da LLM, evidenziando come, nonostante l'elevata similarità lessicale, i modelli linguistici spesso falliscano nel catturare significati contestualmente radicati rispetto alla produzione umana.

Natalie Perez, Sreyoshi Bhaduri, Aman Chadha2026-03-06💻 cs

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

Il paper propone FedEMA-Distill, un metodo di apprendimento federato robusto ed efficiente che combina una media mobile esponenziale con la distillazione della conoscenza basata sui logit aggregati per mitigare l'eterogeneità dei dati, ridurre il carico di comunicazione e resistere ad attacchi avversari senza richiedere modifiche ai client.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Generating Realistic, Protocol-Compliant Maritime Radio Dialogues using Self-Instruct and Low-Rank Adaptation

Questo studio presenta un metodo di auto-istruzione consapevole della conformità, integrato con un pipeline di verifica a 26 filtri e tecniche LoRA, per generare dialoghi radio marittimi realistici e conformi allo SMCP dell'IMO, al fine di colmare la carenza di dati ad alta qualità necessari per i sistemi di sicurezza marittima basati sull'intelligenza artificiale.

Gürsel Akdeniz, Emin Cagatay Nakilcioglu2026-03-06💻 cs

Agent Memory Below the Prompt: Persistent Q4 KV Cache for Multi-Agent LLM Inference on Edge Devices

Questo paper presenta un sistema per l'inferenza multi-agente LLM su dispositivi edge che risolve i vincoli di memoria persistendo le cache KV quantizzate a 4 bit su disco, permettendo il ripristino diretto dello stato di attenzione e riducendo il tempo di primo token fino a 136 volte rispetto al ricalcolo completo, con un impatto minimo sulla qualità del modello.

Yakov Pyotr Shkolnikov2026-03-06💻 cs

CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

Il paper presenta CogGen, un modello generativo profondo completamente non supervisionato che migliora la ricostruzione della risonanza magnetica campionata in modo compresso regolando il "carico cognitivo" attraverso una strategia di apprendimento curricolare che passa gradualmente dal fitting dei dati a bassa frequenza a quelli ad alta frequenza, superando così i limiti di convergenza e di sovrapposizione dei metodi tradizionali.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs