MoD-DPO: Towards Mitigating Cross-modal Hallucinations in Omni LLMs using Modality Decoupled Preference Optimization
Cette présentation propose MoD-DPO, un cadre d'optimisation des préférences découplé par modalité qui atténue les hallucinations intermodales dans les modèles de langage omni-modaux en renforçant l'ancrage des modalités et en réduisant la dépendance aux priors textuels.