CTRL-RAG: Contrastive Likelihood Reward Based Reinforcement Learning for Context-Faithful RAG Models

Dit paper introduceert CTRL-RAG, een nieuw hybride beloningssysteem dat gebruikmaakt van een contrastieve waarschijnlijkheidsbeloning om hallucinaties te verminderen en de contextgetrouwheid van Retrieval-Augmented Generation-modellen te verbeteren door de log-waarschijnlijkheidskloof tussen antwoorden met en zonder bewijsmateriaal te optimaliseren.

Zhehao Tan, Yihan Jiao, Dan Yang + 8 more2026-03-06💻 cs

SalamahBench: Toward Standardized Safety Evaluation for Arabic Language Models

Dit paper introduceert SalamahBench, een gestandaardiseerd veiligheidsbenchmark voor Arabische taalmodellen bestaande uit 8.170 prompts in 12 categorieën, waarmee wordt aangetoond dat bestaande Arabische modellen aanzienlijke veiligheidskwetsbaarheden vertonen en dat gespecialiseerde bewakingsmodellen superieur zijn aan native modellen voor het detecteren van schadelijke inhoud.

Omar Abdelnasser, Fatemah Alharbi, Khaled Khasawneh + 2 more2026-03-06💻 cs

Multiclass Hate Speech Detection with RoBERTa-OTA: Integrating Transformer Attention and Graph Convolutional Networks

Dit artikel introduceert RoBERTa-OTA, een nieuw model dat RoBERTa-embeddings combineert met een ontologie-gestuurde attentie-mechanisme en Graph Convolutional Networks om de nauwkeurigheid van multiclass hate speech-detectie over verschillende demografische categorieën aanzienlijk te verbeteren met slechts een minimale toename in parametergrootte.

Mahmoud Abusaqer, Jamil Saquer2026-03-06💻 cs

A unified foundational framework for knowledge injection and evaluation of Large Language Models in Combustion Science

Deze studie introduceert een unificerend raamwerk voor het injecteren van kennis en evalueren van grote taalmodellen in de verbrandingswetenschap, waarbij wordt aangetoond dat een gestructureerde aanpak met kennisgrafieken en voortgezette pretraining noodzakelijk is om de beperkingen van standaard retrieval-augmented generation te overwinnen.

Zonglin Yang, Runze Mao, Tianhao Wu + 3 more2026-03-06💻 cs