Toward Epistemic Stability: Engineering Consistent Procedures for Industrial LLM Hallucination Reduction

Questo studio presenta e valuta cinque strategie di ingegneria dei prompt per ridurre le allucinazioni nei modelli linguistici industriali, dimostrando che l'uso di un registro dati potenziato (M4) garantisce risultati coerenti in tutte le prove, mentre le versioni rivisitate di altre metodologie, come la decomposizione dei prompt (M2), mostrano miglioramenti significativi verso procedure più stabili e affidabili.

Brian Freeman, Adam Kicklighter, Matt Erdman, Zach Gordon2026-03-12🤖 cs.AI

InFusionLayer: a CFA-based ensemble tool to generate new classifiers for learning and modeling

Il documento introduce InFusionLayer, un nuovo strumento Python open-source basato sull'analisi di fusione combinatoria (CFA) che integra funzioni di caratteristiche punteggio-rank e diversità cognitiva per ottimizzare l'apprendimento di ensemble in problemi di classificazione multiclasse, dimostrando la sua efficacia su vari dataset di visione artificiale e la compatibilità con framework come PyTorch, TensorFlow e Scikit-learn.

Eric Roginek, Jingyan Xu, D. Frank. Hsu2026-03-12🤖 cs.LG

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Questo articolo introduce gli AIBOM (Artificial Intelligence Bills of Materials) agentici, un'estensione dinamica degli SBOM basata su un'architettura multi-agente che integra monitoraggio del runtime, ricostruzione dell'ambiente e ragionamento sulle vulnerabilità per garantire una provenienza del software riproducibile e contestualizzata.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan Atefi2026-03-12🤖 cs.AI

The Epistemic Support-Point Filter: Jaynesian Maximum Entropy Meets Popperian Falsification

Questo articolo dimostra che il Filtro del Punto di Supporto Epistemico (ESPF) è il filtro ottimale unico che sintetizza il principio di massima entropia di Jaynes nella propagazione e la falsificazione popperiana nell'aggiornamento, minimizzando l'ignoranza epistemica nel caso peggiore senza ricorrere a prior soggettivi, come confermato da validazioni numeriche nel tracciamento orbitale.

Moriba Kemessia Jah2026-03-12🔢 math

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Questo studio analizza i limiti dei modelli linguistici nella generazione automatica di patch di sicurezza per vulnerabilità Java, rivelando che, sebbene preservino spesso la funzionalità, falliscono prevalentemente nel comprendere la semantica corretta delle riparazioni, ottenendo un basso punteggio di sicurezza che ne richiede una validazione rigorosa prima del dispiegamento.

Amir Al-Maamari2026-03-12🤖 cs.AI