Hate Speech Detection using Large Language Models with Data Augmentation and Feature Enhancement

Cette étude évalue l'efficacité des techniques d'augmentation de données et d'amélioration des caractéristiques pour la détection de discours haineux, démontrant que le modèle open-source gpt-oss-20b obtient les meilleurs résultats globaux tandis que l'approche Delta TF-IDF, couplée à l'augmentation de données, atteint une précision exceptionnelle sur le jeu de données Stormfront, tout en soulignant la difficulté accrue de détecter les discours haineux implicites.

Brian Jing Hong Nge, Stefan Su, Thanh Thi Nguyen + 3 more2026-03-06💻 cs

AI-Assisted Moot Courts: Simulating Justice-Specific Questioning in Oral Arguments

En s'appuyant sur un cadre d'évaluation à deux couches, cette étude démontre que les modèles d'IA peuvent simuler de manière réaliste les questions des juges lors d'audiences simulées, tout en révélant des limites importantes telles que le manque de diversité et la flatterie, qui resteraient indétectables avec des méthodes d'évaluation naïves.

Kylie Zhang, Nimra Nadeem, Lucia Zheng + 2 more2026-03-06💻 cs

HiMAP-Travel: Hierarchical Multi-Agent Planning for Long-Horizon Constrained Travel

HiMAP-Travel est un cadre de planification hiérarchique multi-agents qui surpasse les approches séquentielles pour les voyages à long terme en décomposant la tâche en coordination stratégique et exécution parallèle, tout en garantissant le respect des contraintes budgétaires et de diversité grâce à des mécanismes de transaction, de négociation et d'un modèle unique entraîné par GRPO.

The Viet Bui, Wenjun Li, Yong Liu2026-03-06💻 cs

Stacked from One: Multi-Scale Self-Injection for Context Window Extension

Ce papier présente SharedLLM, une architecture innovante utilisant l'auto-injection de modèles à court contexte empilés pour compresser efficacement les longues séquences et étendre la fenêtre de contexte au-delà de 128K tokens, tout en réduisant la consommation mémoire et en accélérant l'inférence sans nécessiter un pré-entraînement coûteux sur de longs contextes.

Wei Han, Pan Zhou, Shuicheng Yan2026-03-06💻 cs

Beyond Linear LLM Invocation: An Efficient and Effective Semantic Filter Paradigm

Ce papier propose le paradigme CSV (Clustering-Sampling-Voting), un cadre innovant qui réduit la complexité des invocations de modèles de langage pour le filtrage sémantique à une complexité sous-linéaire tout en garantissant des erreurs maîtrisées, permettant ainsi de diminuer considérablement les coûts et la latence par rapport aux approches existantes.

Nan Hou, Kangfei Zhao, Jiadong Xie + 1 more2026-03-06💻 cs

Beyond the Context Window: A Cost-Performance Analysis of Fact-Based Memory vs. Long-Context LLMs for Persistent Agents

Cette étude compare l'efficacité et le coût d'un système de mémoire factuelle basé sur Mem0 à l'utilisation de modèles LLM à long contexte pour des agents conversationnels persistants, révélant que l'approche mémoire devient plus économique au-delà d'un certain seuil d'interactions tout en offrant des performances compétitives sur la cohérence des personnalités.

Natchanon Pollertlam, Witchayut Kornsuwannawit2026-03-06💬 cs.CL

From Unfamiliar to Familiar: Detecting Pre-training Data via Gradient Deviations in Large Language Models

Ce papier propose GDS, une méthode novatrice qui détecte les données de pré-entraînement des grands modèles de langage en analysant les écarts de gradient (magnitude, localisation et concentration neuronale) pour surmonter les limites des approches existantes et offrir une détection de haute performance avec une excellente transférabilité inter-ensembles.

Ruiqi Zhang, Lingxiang Wang, Hainan Zhang + 2 more2026-03-06💬 cs.CL