egoEMOTION: Egocentric Vision and Physiological Signals for Emotion and Personality Recognition in Real-World Tasks

Ce papier présente egoEMOTION, le premier jeu de données couplant vision égocentrique et signaux physiologiques pour la reconnaissance de l'émotion et de la personnalité dans des tâches réelles, établissant ainsi de nouvelles bases pour la modélisation affective du comportement humain.

Matthias Jammot, Björn Braun, Paul Streli, Rafael Wampfler, Christian Holz

Publié 2026-02-25
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🎥 Le Film de votre Vie : Quand vos lunettes "sentent" vos émotions

Imaginez que vous portez des lunettes intelligentes (comme celles de Meta Project Aria) qui enregistrent tout ce que vous voyez, où vous regardez et comment bouge votre tête. Jusqu'à présent, ces lunettes étaient comme des caméras de surveillance muettes : elles voyaient ce que vous faisiez (manger, marcher, travailler), mais elles ne comprenaient pas comment vous vous sentiez à ce moment-là.

Les chercheurs de l'ETH Zurich se sont dit : "Et si on donnait une voix à ces lunettes ? Et si on pouvait comprendre non seulement ce que vous faites, mais aussi si vous êtes joyeux, stressé, ou même quel genre de personne vous êtes ?"

C'est là qu'intervient egoEMOTION.

🧩 Le Grand Puzzle : Un nouveau jeu de données

Pour entraîner une intelligence artificielle à comprendre les émotions, il faut lui montrer des milliers d'exemples. C'est ce que les auteurs ont créé : un immense puzzle multimodal (un ensemble de données) qui relie trois choses qui ne parlaient jamais ensemble auparavant :

  1. Ce que vous voyez (la caméra des lunettes).
  2. Ce que votre corps ressent (votre cœur qui bat, votre respiration, la transpiration de votre peau).
  3. Ce que vous ressentez vraiment (ce que vous dites à voix haute : "Je suis triste" ou "Je suis excité").

C'est comme si on donnait à un détective non seulement la vidéo du crime, mais aussi le rythme cardiaque du suspect et son journal intime.

🎭 Comment ça a été filmé ? (Le tournage)

Pour créer ce puzzle, ils ont invité 43 personnes à porter ces lunettes pendant environ 2 heures. Le scénario se divisait en deux actes :

  • Acte 1 : Le Cinéma Émotionnel. Les participants regardaient des vidéos conçues pour provoquer des réactions spécifiques (une vidéo drôle, une scène effrayante, un moment triste). C'est comme un test de stress contrôlé.
  • Acte 2 : La Vie Réelle. Ensuite, ils devaient faire des tâches quotidiennes : jouer à un jeu vidéo, peindre un tableau, ou essayer de faire rire un ami. C'est la partie "naturelle", où les émotions surgissent sans qu'on les force.

À chaque moment, les participants devaient dire : "Comment je me sens ?" en utilisant des échelles simples (comme des smileys) et en décrivant leur personnalité (sont-ils timides ? ambitieux ?).

🔍 La Grande Découverte : Les yeux disent plus que le cœur !

C'est ici que ça devient fascinant. Habituellement, pour savoir si quelqu'un est stressé, on regarde son cœur (électrocardiogramme) ou sa peau (transpiration). C'est comme essayer de deviner la météo en regardant un thermomètre.

Mais avec egoEMOTION, les chercheurs ont découvert quelque chose de surprenant :

Les lunettes seules (la caméra et le suivi du regard) sont souvent meilleures pour prédire les émotions que les capteurs médicaux collés sur le corps !

L'analogie du détective :
Imaginez deux détectives :

  • Le Détective Médical écoute le cœur du suspect. C'est utile, mais le cœur peut battre vite parce qu'il a couru, pas seulement parce qu'il a peur.
  • Le Détective des Lunettes observe les yeux et la tête. Il voit si le regard fuit, si les pupilles se dilatent, ou si la tête se penche.

Résultat : Le Détective des Lunettes a souvent mieux compris l'émotion réelle que le Détective Médical. Pourquoi ? Parce que nos yeux et nos mouvements de tête trahissent nos pensées et nos sentiments de manière très directe, même quand on essaie de les cacher.

🚀 Pourquoi est-ce important pour nous ?

Ce projet ouvre la porte à une nouvelle ère pour nos technologies :

  1. Des assistants plus intelligents : Imaginez un assistant virtuel qui, en voyant que vous êtes frustré (grâce à votre regard et votre posture), vous propose automatiquement de simplifier une tâche ou de mettre de la musique calme.
  2. La santé mentale : Des lunettes pourraient aider à détecter précocement des signes de dépression ou d'anxiété en observant les changements subtils dans votre comportement quotidien.
  3. Comprendre l'humain : Cela nous aide à réaliser que pour vraiment comprendre une action (comme conduire une voiture ou travailler), il faut comprendre l'état émotionnel de la personne qui la fait.

🏁 En résumé

egoEMOTION, c'est comme donner un cœur et une âme aux lunettes intelligentes. Au lieu de juste voir le monde, elles commencent à le ressentir. Et la leçon principale ? Parfois, pour comprendre ce qu'une personne ressent, il suffit de regarder où elle pose son regard, bien plus que de mesurer son pouls.

C'est un pas de géant vers des machines qui ne sont pas seulement intelligentes, mais aussi émotionnellement intelligentes.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →