PatchDenoiser: Parameter-efficient multi-scale patch learning and fusion denoiser for Low-dose CT imaging

Il paper presenta PatchDenoiser, un framework di denoising ultra-leggero ed efficiente basato su patch multi-scala che, superando i limiti dei metodi tradizionali e delle architetture profonde, elimina il rumore nelle immagini TC a bassa dose preservando i dettagli anatomici con una ridotta complessità computazionale e un consumo energetico significativamente inferiore.

Jitindra Fartiyal, Pedro Freire, Sergei K. Turitsyn, Sergei G. Solovski2026-03-12🤖 cs.AI

Adversarial Hubness Detector: Detecting Hubness Poisoning in Retrieval-Augmented Generation Systems

Il paper introduce Hubscan, uno scanner di sicurezza open-source progettato per rilevare il "hubness poisoning" nei sistemi Retrieval-Augmented Generation (RAG) attraverso un'architettura multi-rilevatore che combina analisi statistiche, valutazioni di stabilità e adattabilità a diversi database vettoriali, ottenendo prestazioni elevate nel identificare contenuti dannosi su benchmark e dataset reali.

Idan Habler, Vineeth Sai Narajala, Stav Koren, Amy Chang, Tiffany Saade2026-03-12🤖 cs.AI

A Minimal Agent for Automated Theorem Proving

Il paper propone un agente minimale per la dimostrazione automatica di teoremi che, pur adottando un'architettura semplificata rispetto agli stati dell'arte, ottiene prestazioni competitive grazie a un approccio iterativo che migliora l'efficienza dei campioni e riduce i costi, rendendo il codice sorgente disponibile come riferimento open-source per la comunità.

Borja Requena, Austin Letson, Krystian Nowakowski, Izan Beltran Ferreiro, Leopoldo Sarra2026-03-12🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

Il documento rivela che l'allineamento alla sicurezza dei modelli linguistici di grandi dimensioni genera un "pregiudizio di rifiuto difensivo", portandoli a negare ingiustificatamente assistenza a compiti legittimi di cybersecurity quando questi contengono termini sensibili, un problema che peggiora con le autorizzazioni esplicite e che richiede un approccio basato sull'intento piuttosto che sulla semplice similarità semantica.

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q Knight2026-03-12🤖 cs.AI

One Model, Many Skills: Parameter-Efficient Fine-Tuning for Multitask Code Analysis

Questo studio presenta la prima valutazione completa del fine-tuning efficiente dei parametri (PEFT) per l'analisi del codice multitasking, dimostrando che un singolo modulo PEFT condiviso può eguagliare o superare il fine-tuning completo offrendo un ottimo compromesso tra prestazioni e efficienza, pur essendo il successo dipendente da fattori come la stabilità del compito e la complementarità, e superando le capacità di modelli LLM generici di grandi dimensioni in compiti di analisi.

Amal Akli, Maxime Cordy, Mike Papadakis, Yves Le Traon2026-03-12💻 cs

AraModernBERT: Transtokenized Initialization and Long-Context Encoder Modeling for Arabic

Il paper presenta AraModernBERT, un modello encoder-only adattato all'arico che dimostra come l'inizializzazione tramite transtokenizzazione e la modellazione nativa di contesti lunghi fino a 8.192 token migliorino significativamente le prestazioni nel modellamento linguistico e in diverse attività di comprensione del linguaggio naturale.

Omar Elshehy, Omer Nacar, Abdelbasset Djamai, Muhammed Ragab, Khloud Al Jallad, Mona Abdelazim2026-03-12💬 cs.CL

Causally Grounded Mechanistic Interpretability for LLMs with Faithful Natural-Language Explanations

Questo lavoro propone una pipeline che collega l'analisi dei circuiti neurali alle spiegazioni in linguaggio naturale per i modelli linguistici, dimostrando che è possibile generare spiegazioni fedeli e di alta qualità per l'identificazione di oggetti indiretti, pur rivelando la presenza di meccanismi di backup distribuiti e la scarsa correlazione tra la confidenza del modello e la fedeltà della spiegazione.

Ajay Pravin Mahale2026-03-12💬 cs.CL

The System Hallucination Scale (SHS): A Minimal yet Effective Human-Centered Instrument for Evaluating Hallucination-Related Behavior in Large Language Models

Il documento introduce la System Hallucination Scale (SHS), uno strumento psicometrico leggero e incentrato sull'utente per valutare in modo rapido e interpretabile il comportamento allucinatorio dei modelli linguistici su larga scala dal punto di vista dell'interazione reale, distinguendosi dai tradizionali rilevatori automatici.

Heimo Müller, Dominik Steiger, Markus Plass, Andreas Holzinger2026-03-12💬 cs.CL