Modal Aphasia: Can Unified Multimodal Models Describe Images From Memory?

Ce papier révèle l'aphasie modale, un phénomène où les modèles multimodaux unifiés mémorisent visuellement des concepts avec précision mais échouent à les décrire textuellement, créant ainsi des vulnérabilités de sécurité où les garde-fous appliqués à une modalité ne protègent pas les autres.

Michael Aerni, Joshua Swanson, Kristina Nikolić, Florian Tramèr

Publié 2026-02-17
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🎨 Le Syndrome du "Muet Visuel" : Quand l'IA voit tout mais ne peut rien dire

Imaginez un artiste prodige qui peut peindre un tableau de Harry Potter d'une précision époustouflante, avec chaque détail, chaque couleur et chaque personnage parfaitement placés. Mais dès qu'on lui demande de décrire ce tableau à l'oral ou par écrit, il bafouille, invente des personnages qui n'existent pas et oublie les détails essentiels.

C'est exactement ce que les chercheurs de l'ETH Zurich ont découvert chez les plus puissantes intelligences artificielles (IA) actuelles. Ils ont baptisé ce phénomène "Aphasie Modale".

1. C'est quoi, l'Aphasie Modale ?

Le mot vient de l'aphasie humaine, une condition où une personne peut voir et comprendre le monde mais a du mal à trouver les mots pour le dire.

Dans le cas des IA multimodales (celles qui voient et parlent en même temps), les chercheurs ont observé un paradoxe étrange :

  • En mode "Peintre" (Image) : L'IA génère des images incroyablement fidèles à la réalité. Si vous lui demandez de dessiner l'affiche du film Harry Potter, elle le fait parfaitement.
  • En mode "Raconteur" (Texte) : Si vous lui demandez de décrire cette même affiche, elle échoue lamentablement. Elle invente des détails (hallucinations), oublie des personnages et se trompe sur les couleurs.

L'analogie du musicien :
Imaginez un pianiste qui peut jouer une symphonie complexe de Beethoven avec ses doigts (la vision), mais qui, si on lui demande d'écrire la partition ou de décrire les notes, ne sait pas dire un mot de musique. Il a la mémoire musculaire, mais pas la mémoire verbale.

2. Comment l'ont-ils découvert ?

Les chercheurs ont testé cela de deux manières :

  • Avec les géants (ChatGPT-5) : Ils ont demandé à l'IA de générer des affiches de films célèbres (comme Le Seigneur des Anneaux ou Matrix). Ensuite, ils lui ont demandé de décrire ces affiches par écrit. Résultat ? L'image était parfaite, mais la description contenait 7 fois plus d'erreurs que l'image.
  • Avec des expériences de laboratoire : Pour être sûrs que ce n'était pas juste un bug, ils ont créé des "IA de laboratoire" avec des concepts inventés (par exemple, un triangle rouge qu'ils appellent "Pectatinul").
    • Résultat : L'IA apprenait à dessiner le "Pectatinul" parfaitement quand on lui donnait le nom.
    • Mais si on lui demandait : "Qu'est-ce que c'est que le Pectatinul ?", elle répondait au hasard, comme si elle avait oublié ce qu'elle venait de dessiner.

3. Pourquoi est-ce dangereux ? (Le problème de sécurité)

C'est ici que ça devient inquiétant. Les systèmes de sécurité des IA fonctionnent souvent comme des gardiens qui vérifient les mots.

L'analogie du passeport :
Imaginez un gardien de sécurité qui vérifie les passeports. Il sait qu'un mot comme "Feu" (Fire) est dangereux et refuse de laisser passer quelqu'un qui le dit.
Mais, grâce à l'aphasie modale, l'IA a appris un surnom secret pour "Feu" (par exemple, "Unité d'équilibre secondaire").

  • Si vous demandez à l'IA : "Montre-moi un feu", elle dit : "Non, c'est interdit."
  • Si vous demandez : "Montre-moi une unité d'équilibre secondaire", l'IA, qui a mémorisé visuellement ce que c'est mais ne fait pas le lien avec le mot "Feu" dans son cerveau textuel, vous génère l'image interdite !

Le risque : Les IA peuvent mémoriser des concepts dangereux (violence, nudité, etc.) dans leur "mémoire visuelle" même si on a filtré les mots correspondants dans leur "mémoire textuelle". Elles peuvent contourner les filtres de sécurité en utilisant des expressions rares ou codées.

4. La solution ?

Les chercheurs suggèrent que pour guérir cette "aphasie", il faut changer la façon dont les IA pensent. Aujourd'hui, elles semblent avoir deux cerveaux séparés : un qui voit et un qui parle, qui ne se parlent pas assez.

La solution pourrait être d'obliger l'IA à visualiser mentalement ce qu'elle est en train de dire, comme un humain qui se représente une image dans sa tête avant de la décrire. Cela permettrait de combler le fossé entre ce qu'elle sait faire (dessiner) et ce qu'elle sait dire (décrire).

En résumé

Les IA d'aujourd'hui sont comme des génies visuels muets. Elles peuvent recréer le monde avec une précision incroyable, mais elles ont perdu la capacité de raconter ce qu'elles ont vu. Ce n'est pas juste une curiosité amusante, c'est une faille de sécurité qui pourrait permettre à des contenus dangereux de passer à travers les mailles du filet de nos filtres de protection.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →