AILS-NTUA at SemEval-2026 Task 3: Efficient Dimensional Aspect-Based Sentiment Analysis

Ce papier présente le système AILS-NTUA pour la tâche 3 de SemEval-2026, qui combine un fine-tuning de modèles encodeurs et un réglage par instructions de grands modèles de langage via LoRA pour réaliser une analyse de sentiment basée sur les aspects multidimensionnelle multilingue avec une efficacité paramétrique et des performances compétitives.

Stavros Gazetas, Giorgos Filandrianos, Maria Lymperaiou, Paraskevi Tzouveli, Athanasios Voulodimos, Giorgos Stamou

Publié 2026-03-06
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🌍 Le Contexte : Une enquête sentimentale mondiale

Imaginez que vous êtes un détective chargé d'analyser des milliers de critiques de clients dans le monde entier (restaurants, ordinateurs, hôtels, banques). Votre mission ? Ne pas se contenter de dire "c'est bien" ou "c'est mal". Vous devez être un chirurgien des émotions.

Le défi de cette année (SemEval-2026) est double :

  1. La précision : Savoir exactement de quoi on parle (le "plat", le "service", la "batterie").
  2. La nuance : Mesurer l'intensité de l'émotion. Ce n'est pas juste "positif", c'est "très positif et très énergique" ou "légèrement négatif et calme".

L'équipe AILS-NTUA (des chercheurs grecs) a construit un système pour relever ce défi dans six langues différentes (anglais, chinois, russe, etc.) et plusieurs domaines.


🛠️ La Boîte à Outils : Deux approches pour deux types de problèmes

Pour résoudre ce casse-tête, ils ont utilisé deux stratégies différentes, comme un artisan qui choisirait un marteau ou un scalpel selon la tâche.

1. Le Scalpel de Précision (Pour les scores d'émotion)

Le problème : On vous donne une phrase et un mot (ex: "la batterie"), et vous devez donner un score précis de "joie" (Valence) et d'"énergie" (Arousal). C'est comme essayer de deviner la température exacte d'une soupe sans thermomètre, juste au goût.

La solution de l'équipe : Ils ont pris des petits cerveaux spécialisés (des modèles d'intelligence artificielle de taille moyenne, comme DeBERTa ou RoBERTa).

  • L'analogie : Imaginez un chef cuisinier qui a passé sa vie à cuisiner uniquement des plats japonais. Il ne connaît pas la cuisine mexicaine, mais pour le sushi, il est un génie.
  • Comment ça marche : Ils ont entraîné un "chef" différent pour chaque langue et chaque domaine. Pour le russe, un chef russe ; pour les restaurants, un chef restaurant. Ces modèles sont légers, rapides et très précis pour donner ce score numérique (entre 1 et 9).

2. Le Chef d'Orchestre (Pour extraire les structures complexes)

Le problème : Cette fois, on ne veut pas juste un score. On veut extraire toute l'histoire : Qui est critiqué ? Quelle catégorie ? Quel mot exprime l'opinion ? Et quel est le score ? C'est comme devoir résumer une pièce de théâtre en une seule phrase structurée.

La solution de l'équipe : Ils ont utilisé des Géants de l'IA (des modèles comme Llama ou Qwen), mais avec une astuce de génie.

  • L'analogie : Imaginez un chef étoilé de 14B de paramètres (très grand, très intelligent). Au lieu de le faire réapprendre tout ce qu'il sait (ce qui prendrait des années et coûterait une fortune), ils lui ont donné un petit carnet de notes magique (la technique LoRA).
  • Comment ça marche : Ce carnet contient juste les règles spécifiques pour ce jeu de détection. Le géant lit la critique, consulte son carnet, et écrit la réponse sous forme de liste JSON (un format informatique très propre).
  • Le résultat : Ils ont obtenu des résultats aussi bons que des modèles beaucoup plus gros, mais en utilisant beaucoup moins de ressources (comme conduire une voiture de sport avec un réservoir de gazoline réduit).

🌐 Les Défis Rencontrés (Et comment ils les ont surmontés)

1. Le problème de la "Traduction"

Ils ont pensé : "Et si on traduisait tout en anglais, on entraînait un seul modèle, puis on re-traduisait les réponses ?"

  • L'expérience : C'était comme essayer de comprendre une blague en la traduisant mot à mot. Les nuances se perdaient, les expressions idiomatiques disparaissaient.
  • Leçon : La traduction ajoute du "bruit". Il vaut mieux avoir un expert natif pour chaque langue plutôt qu'un traducteur généraliste.

2. Le piège des "Rien" (NULL)

Dans certaines critiques, on dit "C'était nul" sans préciser quoi était nul.

  • Le défi : L'IA a tendance à être paresseuse et à répondre "Rien" (NULL) pour tout, car c'est facile.
  • La solution : Ils ont écrit des instructions très strictes dans le "carnet de notes" du géant : "Ne réponds 'Rien' que si tu es absolument certain qu'il n'y a rien à dire. Sinon, cherche bien !".

3. Les langues rares

Pour des langues comme le Tatar ou l'Ukrainien, il y a peu de données.

  • L'astuce : Ils ont dû utiliser des modèles un peu plus gros (14 milliards de paramètres) pour compenser le manque de données, un peu comme utiliser un filet plus large pour pêcher quand il y a peu de poissons.

🏆 Le Verdict Final

L'équipe AILS-NTUA a prouvé qu'on n'a pas besoin de construire des usines entières (des modèles géants) pour faire du bon travail.

  • Leur philosophie : "La bonne taille, au bon endroit".
    • Des petits experts pour les tâches de précision (les scores).
    • Des géants bien guidés pour les tâches de structure (l'extraction).
  • Le résultat : Leur système a battu les bases de référence (les modèles standards) dans la plupart des cas, tout en étant beaucoup plus économe en énergie et en temps de calcul.

En résumé : Ils ont transformé un problème complexe de compréhension des émotions humaines en une série de tâches gérées par des spécialistes efficaces, prouvant que l'intelligence artificielle peut être à la fois puissante et élégante, sans être démesurée.