StoryMovie: A Dataset for Semantic Alignment of Visual Stories with Movie Scripts and Subtitles

Ce papier présente StoryMovie, un nouveau jeu de données alignant des histoires visuelles avec des scénarios et sous-titres de films pour corriger les hallucinations sémantiques, et démontre que l'affinement d'un modèle de narration sur ces données améliore significativement l'attribution des dialogues par rapport à l'ancrage visuel seul.

Daniel Oliveira, David Martins de Matos

Publié 2026-02-26
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🎬 Le Problème : Le Cinéaste qui Rêve

Imaginez que vous donnez une série de photos à un robot très intelligent, mais un peu rêveur, et que vous lui demandez de raconter l'histoire qui s'y déroule.

Ce robot (les modèles d'intelligence artificielle actuels) est très doué pour décrire ce qu'il voit : "Voici un homme en costume, voici une femme en robe rouge, ils sont dans un salon." C'est comme si le robot avait des yeux de lynx.

Mais voici le piège : Le robot a tendance à inventer la suite.

  • Il peut dire que l'homme et la femme sont amoureux, alors qu'en réalité, ce sont un père et sa fille.
  • Il peut inventer une dispute croustillante alors qu'ils sont en train de rire.
  • Il peut attribuer une phrase à la femme alors que c'est l'homme qui parlait.

C'est ce qu'on appelle une hallucination sémantique. Le robot voit bien les personnages (il ne les confond pas), mais il ne comprend pas qui ils sont vraiment ni ce qu'ils disent vraiment. C'est comme si un scénariste regardait une photo et inventait n'importe quel dialogue, sans jamais avoir lu le vrai script du film.

🛠️ La Solution : StoryMovie (Le Détective de Scénarios)

Les auteurs de cet article, Daniel et David, ont eu une idée géniale : au lieu de laisser le robot deviner, donnons-lui le vrai script du film !

Ils ont créé une nouvelle base de données appelée StoryMovie. Imaginez-la comme une immense bibliothèque où chaque photo est collée à deux documents précieux :

  1. Le sous-titre : Qui dit exactement quand une phrase est prononcée (l'heure exacte).
  2. Le script (scénario) : Qui dit exactement qui parle et comment il le dit (en colère, en pleurant, doucement).

Le défi technique ? Relier ces deux documents. Le script ne dit pas "à la seconde 12:04", et les sous-titres ne disent pas "c'est le personnage X".
Les chercheurs ont utilisé un outil mathématique (appelé "LCS", un peu comme un jeu de "trouver les mots communs") pour faire correspondre les phrases du script avec les sous-titres, comme un détective qui assemble des pièces de puzzle pour savoir qui a dit quoi et à quel moment.

🤖 Le Résultat : Qwen Storyteller3 (Le Nouvel Acteur)

Une fois ce travail de détective terminé, ils ont entraîné un nouveau modèle, Qwen Storyteller3, avec ces histoires "réelles".

On peut imaginer le processus d'apprentissage en trois étapes, comme pour former un acteur :

  1. Étape 1 (Les Yeux) : Apprendre à reconnaître les objets et les gens sur les photos.
  2. Étape 2 (La Mémoire) : Apprendre à suivre le même personnage d'une photo à l'autre (ne pas le confondre avec un autre).
  3. Étape 3 (L'Âme - La nouvelle étape) : Apprendre à lire le script pour comprendre la vraie histoire, les vraies relations et les vrais dialogues.

🏆 Les Résultats : Qui a gagné ?

Pour tester si cela fonctionne, ils ont organisé un concours entre trois "juges" (des intelligences artificielles très avancées) :

  1. Le modèle de base (le rêveur).
  2. L'ancien modèle (qui voyait bien mais ne lisait pas le script).
  3. Le nouveau modèle Qwen Storyteller3 (qui a lu le script).

Les résultats sont bluffants :

  • Pour attribuer les dialogues : Le nouveau modèle gagne 89,9% des duels contre le modèle de base. C'est énorme ! Il ne confond plus qui parle.
  • Pour comprendre les relations : Là où l'ancien modèle se trompait souvent (pensant qu'une mère était une amie, par exemple), le nouveau modèle a compris la vraie relation dans 94,7% des cas.

🍎 L'Analogie Finale

Imaginez que vous devez raconter l'histoire d'une scène de film à un ami.

  • L'ancien modèle est comme quelqu'un qui regarde une photo floue et dit : "Je pense que c'est un drame d'amour, ils se disent 'Je t'aime'." (C'est plausible, mais faux).
  • Le nouveau modèle (StoryMovie) est comme quelqu'un qui a la photo ET le script du film entre les mains. Il dit : "Non, regarde, c'est un drame familial. La femme dit 'Je suis déçue de toi' à l'homme, qui est son fils, et il répond en pleurant."

En Résumé

Ce papier nous apprend que pour qu'une intelligence artificielle raconte une bonne histoire à partir d'images, il ne suffit pas qu'elle ait de bons yeux. Il faut aussi qu'elle ait accès à la vérité du scénario. En liant les images aux scripts réels des films, les chercheurs ont réussi à éliminer les mensonges inventés par l'IA sur les relations et les dialogues, rendant les histoires générées beaucoup plus vraies et émouvantes.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →