Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness
Ce papier de position propose une approche dualiste pour atténuer les biais dans les grands modèles de langage en combinant des transformations mathématiques rigoureuses basées sur la théorie des catégories (foncteurs) avec l'augmentation par récupération (RAG) afin d'assurer des résultats équitables et sémantiquement intègres.