ThaiSafetyBench: Assessing Language Model Safety in Thai Cultural Contexts

Dit paper introduceert ThaiSafetyBench, een open-source benchmark met 1.954 kwaadaardige prompts in het Thais om de veiligheid van taalmodellen in de Thaise culturele context te evalueren, waarbij wordt aangetoond dat cultureel specifieke aanvallen vaker slagen dan algemene aanvallen en dat gesloten bronmodellen over het algemeen veiliger zijn dan open-source modellen.

Trapoom Ukarapol, Nut Chukamphaeng, Kunat Pipatanakul + 1 more2026-03-06💬 cs.CL

C2-Faith: Benchmarking LLM Judges for Causal and Coverage Faithfulness in Chain-of-Thought Reasoning

Dit paper introduceert C2-Faith, een benchmark op basis van PRM800K die de betrouwbaarheid van LLM-jurissen meet bij het beoordelen van oorzakelijke samenhang en volledigheid in chain-of-thought-redeneringen, en laat zien dat de prestaties sterk afhangen van de taakstelling en dat er aanzienlijke beperkingen zijn in het lokaliseren van fouten en het correct beoordelen van onvolledige redeneringen.

Avni Mittal, Rauno Arike2026-03-06🤖 cs.AI

Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic

Deze paper introduceert een Transformer-gebaseerd raamwerk dat de semantische geometrie van Signal Temporal Logic (STL) distilleert in een continue neurale ruimte, waardoor efficiënte, schaalbare en omkeerbare neurale representaties ontstaan die de logische structuur van formele specificaties behouden zonder de hoge rekenkosten van traditionele symbolische methoden.

Sara Candussio, Gabriele Sarti, Gaia Saveri + 1 more2026-03-06💬 cs.CL