Optimizing What We Trust: Reliability-Guided QUBO Selection of Multi-Agent Weak Framing Signals for Arabic Sentiment Prediction

Il paper propone un framework di supervisione debole affidabile per il rilevamento di cornici nei social media arabi, che utilizza un pipeline multi-agente LLM per stimare l'affidabilità degli esempi e un'ottimizzazione QUBO per selezionare un sottoinsieme bilanciato e non ridondante, migliorando così le prestazioni nella previsione del sentiment.

Rabab Alkhalifa2026-03-06💻 cs

Same Input, Different Scores: A Multi Model Study on the Inconsistency of LLM Judge

Questo studio evidenzia come i modelli di linguaggio di grandi dimensioni (LLM) utilizzati come giudici automatizzati mostrino una significativa instabilità nei punteggi numerici assegnati a input identici, variando in base al modello, alla famiglia e alla temperatura, il che solleva preoccupazioni critiche per l'affidabilità operativa e la riproducibilità nei flussi di lavoro aziendali.

Fiona Lau2026-03-06💻 cs

Generating Realistic, Protocol-Compliant Maritime Radio Dialogues using Self-Instruct and Low-Rank Adaptation

Questo studio presenta un metodo di auto-istruzione consapevole della conformità, integrato con un pipeline di verifica a 26 filtri e tecniche LoRA, per generare dialoghi radio marittimi realistici e conformi allo SMCP dell'IMO, al fine di colmare la carenza di dati ad alta qualità necessari per i sistemi di sicurezza marittima basati sull'intelligenza artificiale.

Gürsel Akdeniz, Emin Cagatay Nakilcioglu2026-03-06💻 cs

A unified foundational framework for knowledge injection and evaluation of Large Language Models in Combustion Science

Questo studio presenta il primo framework end-to-end per lo sviluppo di modelli linguistici specializzati nella scienza della combustione, basato su un vasto database multimodale e un percorso di iniezione di conoscenza in tre fasi che dimostra come l'uso di grafi della conoscenza e il pre-addestramento continuato siano necessari per superare i limiti delle tecniche di recupero standard.

Zonglin Yang, Runze Mao, Tianhao Wu + 3 more2026-03-06💻 cs

From Static Inference to Dynamic Interaction: Navigating the Landscape of Streaming Large Language Models

Questo articolo presenta una panoramica completa dei modelli linguistici di grandi dimensioni (LLM) in streaming, proponendo una definizione unificata, una tassonomia sistematica e una discussione sulle metodologie, le applicazioni reali e le future direzioni di ricerca per colmare il divario tra l'inferenza statica e l'interazione dinamica in tempo reale.

Junlong Tong, Zilong Wang, YuJie Ren + 4 more2026-03-06💻 cs

Coordinated Semantic Alignment and Evidence Constraints for Retrieval-Augmented Generation with Large Language Models

Questo paper propone un metodo di generazione potenziata dal recupero che, integrando l'allineamento semantico e vincoli espliciti sulle evidenze in un quadro unificato, risolve i problemi di disallineamento semantico e utilizzo insufficiente delle fonti per migliorare l'affidabilità fattuale e la verificabilità dei contenuti generati dai grandi modelli linguistici.

Xin Chen, Saili Uday Gadgil, Jiarong Qiu2026-03-06💻 cs