Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks

Questo lavoro propone un nuovo sistema di rilevamento delle intrusioni di rete basato su un ensemble multistrato che combina classificatori in stacking, un autoencoder e l'addestramento avversario per migliorare la robustezza contro gli attacchi generati tramite GAN e FGSM sui dataset UNSW-NB15 e NSL-KDD.

Nasim Soltani, Shayan Nejadshamsi, Zakaria Abou El Houda, Raphael Khoury, Kelton A. P. Costa, Tiago H. Falk, Anderson R. Avila2026-03-12🤖 cs.AI

Domain-Adaptive Health Indicator Learning with Degradation-Stage Synchronized Sampling and Cross-Domain Autoencoder

Il paper propone un nuovo framework di apprendimento adattivo per gli indicatori di salute che combina un campionamento sincronizzato delle fasi di degradazione e un autoencoder a fusione incrociata con kernel grandi per superare le discrepanze distributive e catturare dipendenze temporali a lungo termine, ottenendo risultati superiori su dataset industriali reali.

Jungho Choo, Hanbyeol Park, Gawon Lee, Yunkyung Park, Hyerim Bae2026-03-12🤖 cs.LG

The Curse and Blessing of Mean Bias in FP4-Quantized LLM Training

Il paper dimostra che la rimozione della componente di bias medio, che guida l'instabilità numerica nella formazione di modelli linguistici a bassa precisione, ripristina la stabilità e le prestazioni con un costo computazionale minimo rispetto ai metodi basati su SVD.

Hengjie Cao, Zhendong Huang, Mengyi Chen, Yifeng Yang, Fanqi Yu, Ruijun Huang, Fang Dong, Xin Zhang, Jixian Zhou, Anrui Chen, Mingzhi Dong, Yujiang Wang, Jinlong Hou, Qin Lv, Yuan Cheng, Tun Lu, Fan Yang, Li Shang2026-03-12🤖 cs.LG

UniPINN: A Unified PINN Framework for Multi-task Learning of Diverse Navier-Stokes Equations

Il paper presenta UniPINN, un framework unificato basato su reti neurali informate dalla fisica (PINN) che risolve le sfide dell'apprendimento multi-task per diverse equazioni di Navier-Stokes attraverso un'architettura condivisa-specializzata, un meccanismo di attenzione cross-flow e una strategia di allocazione dinamica dei pesi, garantendo così una maggiore accuratezza e stabilità rispetto ai metodi esistenti.

Dengdi Sun, Jie Chen, Xiao Wang, Jin Tang2026-03-12🤖 cs.AI

Aligning Large Language Models with Searcher Preferences

Il paper introduce SearchLLM, il primo modello linguistico di grandi dimensioni progettato per la ricerca generativa aperta, che utilizza un sistema di ricompensa gerarchico e l'ottimizzazione GRPO per allineare le risposte alle preferenze degli utenti e garantire sicurezza, con risultati positivi dimostrati nel motore di ricerca di RedNote.

Wei Wu, Peilun Zhou, Liyi Chen, Qimeng Wang, Chengqiang Lu, Yan Gao, Yi Wu, Yao Hu, Hui Xiong2026-03-12💬 cs.CL

Learning to Negotiate: Multi-Agent Deliberation for Collective Value Alignment in LLMs

Questo lavoro propone un framework di allineamento multi-agente basato sulla negoziazione che, attraverso il gioco autonomo e l'ottimizzazione tramite RLAIF, permette ai modelli linguistici di risolvere conflitti di valori e allinearsi agli obiettivi dell'Agenzia Collettiva senza compromettere le capacità linguistiche generali.

Panatchakorn Anantaprayoon, Nataliia Babina, Nima Asgharbeygi, Jad Tarifi2026-03-12💬 cs.CL

Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection

Questo studio dimostra che l'esposizione ingenua delle capacità di affinamento e ragionamento dei sistemi di IA generativa, accessibili tramite chatbot commerciali, mina alla base i rilevatori di deepfake attuali permettendo di generare immagini manipolate che eludono la rilevazione, preservano l'identità e mantengono un'alta qualità percettiva, rivelando una discrepanza strutturale tra i modelli di minaccia esistenti e le reali capacità delle IA.

Sunpill Kim, Chanwoo Hwang, Minsu Kim, Jae Hong Seo2026-03-12🤖 cs.AI

Resource-constrained Amazons chess decision framework integrating large language models and graph attention

Questo lavoro propone un framework ibrido leggero per il gioco delle Amazzoni che integra un autoencoder con attenzione su grafi e modelli linguistici di grandi dimensioni per generare dati sintetici e ottimizzare la ricerca ad albero, dimostrando come tale approccio superi sia i metodi tradizionali che il modello teacher stesso in ambienti con risorse computazionali limitate.

Tianhao Qian, Zhuoxuan Li, Jinde Cao, Xinli Shi, Hanjie Liu, Leszek Rutkowski2026-03-12🤖 cs.AI

IH-Challenge: A Training Dataset to Improve Instruction Hierarchy on Frontier LLMs

Il paper introduce IH-Challenge, un dataset di addestramento basato sul reinforcement learning che migliora significativamente la gerarchia delle istruzioni e la robustezza contro gli attacchi nei modelli linguistici avanzati, riducendo al contempo i comportamenti insicuri senza comprometterne l'utilità.

Chuan Guo (Michael Pokorny), Juan Felipe Ceron Uribe (Michael Pokorny), Sicheng Zhu (Michael Pokorny), Christopher A. Choquette-Choo (Michael Pokorny), Steph Lin (Michael Pokorny), Nikhil Kandpal (Michael Pokorny), Milad Nasr (Michael Pokorny), Rai (Michael Pokorny), Sam Toyer, Miles Wang, Yaodong Yu, Alex Beutel, Kai Xiao2026-03-12🤖 cs.AI

Prompting with the human-touch: evaluating model-sensitivity of foundation models for musculoskeletal CT segmentation

Lo studio valuta la sensibilità di 11 modelli fondazionali promptabili per la segmentazione di CT muscoloscheletriche, rivelando che le prestazioni variano significativamente in base alla strategia di prompting e alla complessità anatomica, e che l'uso di prompt umani reali porta a un calo delle prestazioni rispetto ai prompt ideali, rendendo complessa la selezione del modello ottimale per scenari clinici guidati dall'uomo.

Caroline Magg, Maaike A. ter Wee, Johannes G. G. Dobbe, Geert J. Streekstra, Leendert Blankevoort, Clara I. Sánchez, Hoel Kervadec2026-03-12🤖 cs.AI

Towards Cognitive Defect Analysis in Active Infrared Thermography with Vision-Text Cues

Questo lavoro presenta un nuovo framework guidato dal linguaggio per l'analisi cognitiva dei difetti nei materiali compositi CFRP tramite termografia a infrarossi attiva, che utilizza modelli visione-linguaggio preaddestrati e un adattatore specializzato per abilitare il rilevamento e la localizzazione dei difetti in modalità zero-shot senza la necessità di costosi dataset di addestramento.

Mohammed Salah, Eman Ouda, Giuseppe Dell'Avvocato, Fabrizio Sarasini, Ester D'Accardi, Jorge Dias, Davor Svetinovic, Stefano Sfarra, Yusra Abdulrahman2026-03-12⚡ eess

Adaptive RAN Slicing Control via Reward-Free Self-Finetuning Agents

Questo articolo propone un nuovo framework di auto-affinamento senza ricompensa che utilizza un meccanismo di riflessione bi-perspettiva per permettere ad agenti basati su modelli generativi di internalizzare l'esperienza e ottimizzare il controllo dinamico dello slicing delle reti RAN, superando le limitazioni dei metodi di apprendimento per rinforzo tradizionali e degli agenti LLM esistenti in termini di efficienza, stabilità e ottimizzazione multi-obiettivo.

Yuanhao Li, Haozhe Wang, Geyong Min, Nektarios Georgalas, Wang Miao2026-03-12🤖 cs.AI

CUAAudit: Meta-Evaluation of Vision-Language Models as Auditors of Autonomous Computer-Use Agents

Il paper "CUAAudit" valuta l'efficacia dei modelli visione-linguaggio come auditor autonomi per agenti di uso computer, rivelando che, nonostante buone prestazioni generali, questi modelli mostrano limitazioni significative in ambienti complessi e un'alta variabilità nei giudizi, sottolineando la necessità di considerare l'affidabilità e l'incertezza degli evaluatori nel deployment reale.

Marta Sumyk, Oleksandr Kosovan2026-03-12🤖 cs.AI

Does LLM Alignment Really Need Diversity? An Empirical Study of Adapting RLVR Methods for Moral Reasoning

Contrariamente all'ipotesi che l'allineamento dei modelli linguistici richieda algoritmi orientati alla diversità, questo studio empirico dimostra che i metodi di massimizzazione della ricompensa (RLVR) sono ugualmente efficaci per il ragionamento morale, poiché le risposte ad alto valore in questo dominio tendono a concentrarsi in uno spazio semantico ristretto piuttosto che distribuirsi diversamente come nel ragionamento matematico.

Zhaowei Zhang, Xiaohan Liu, Xuekai Zhu, Junchao Huang, Ceyao Zhang, Zhiyuan Feng, Yaodong Yang, Xiaoyuan Yi, Xing Xie2026-03-12🤖 cs.AI