ThaiSafetyBench: Assessing Language Model Safety in Thai Cultural Contexts

Questo lavoro introduce ThaiSafetyBench, un benchmark open-source di 1.954 prompt dannosi in lingua thai che evidenzia come i modelli linguistici siano più vulnerabili agli attacchi radicati nelle specificità culturali thailandesi rispetto a quelli generici, offrendo inoltre un classificatore addestrato e una leaderboard per valutare e migliorare la sicurezza dei modelli in questo contesto.

Trapoom Ukarapol, Nut Chukamphaeng, Kunat Pipatanakul + 1 more2026-03-06💬 cs.CL

C2-Faith: Benchmarking LLM Judges for Causal and Coverage Faithfulness in Chain-of-Thought Reasoning

Il paper introduce C2-Faith, un benchmark basato su PRM800K che valuta l'affidabilità dei giudici LLM nel misurare la fedeltà causale e la completezza del ragionamento a catena di pensiero, rivelando che le prestazioni dipendono fortemente dal compito specifico e che esistono significative lacune nella capacità di localizzare errori o valutare ragionamenti incompleti.

Avni Mittal, Rauno Arike2026-03-06🤖 cs.AI

Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic

Il paper presenta un approccio basato sull'allineamento dei kernel che utilizza un framework di distillazione teacher-student per mappare la semantica della Logica Temporale sui Segnali (STL) in spazi vettoriali neurali continui e invertibili, superando i limiti computazionali dei metodi simbolici esistenti e permettendo un ragionamento neuro-simbolico scalabile ed efficiente.

Sara Candussio, Gabriele Sarti, Gaia Saveri + 1 more2026-03-06💬 cs.CL