MoD-DPO: Towards Mitigating Cross-modal Hallucinations in Omni LLMs using Modality Decoupled Preference Optimization
Dit paper introduceert MoD-DPO, een efficiënt framework dat cross-modale hallucinaties in omni-taalmodellen vermindert door modality-decoupled voorkeuroptimalisatie te gebruiken om de afhankelijkheid van tekstuele priors te doorbreken en de perceptie van relevante audiovisuele modaliteiten te versterken.