AILS-NTUA at SemEval-2026 Task 3: Efficient Dimensional Aspect-Based Sentiment Analysis

Este artigo apresenta o sistema AILS-NTUA para a tarefa DimABSA da SemEval-2026, que combina fine-tuning de codificadores e ajuste de instruções em modelos de linguagem com LoRA para realizar regressão, extração de tripletas e previsão de quadrupletas de sentimento baseado em aspectos de forma eficiente e multilíngue, superando consistentemente as linhas de base.

Stavros Gazetas, Giorgos Filandrianos, Maria Lymperaiou, Paraskevi Tzouveli, Athanasios Voulodimos, Giorgos Stamou

Publicado 2026-03-06
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um crítico de cinema muito detalhista. Quando você vê um filme, não diz apenas "gostei" ou "não gostei". Você diz: "A trilha sonora (aspecto) foi emocionante (opinião) com uma intensidade alta e um sentimento muito positivo".

O artigo que você leu descreve como a equipe AILS-NTUA (da Universidade Técnica de Atenas) criou um "super assistente" de computador para fazer exatamente isso, mas em escala global e com nuances emocionais complexas. Eles participaram de uma competição chamada SemEval-2026, onde o desafio era analisar sentimentos em textos de várias línguas (como inglês, chinês, russo, ucraniano, etc.) e em vários temas (restaurantes, laptops, hotéis, finanças).

Aqui está a explicação do que eles fizeram, usando analogias simples:

1. O Grande Desafio: Não é só "Bom" ou "Ruim"

A maioria dos sistemas de análise de sentimento funciona como um semáforo: Verde (bom), Vermelho (ruim) ou Amarelo (neutro).

Mas a equipe queria algo mais sofisticado. Eles queriam medir a emoção em duas dimensões, como se fosse um mapa de sentimentos:

  • Valência (Valence): É o "gosto". Vai do "péssimo" ao "excelente".
  • Arousal (Arousal): É a "energia". Vai do "calmo/indiferente" ao "excitado/intenso".

A Analogia: Imagine que o sentimento não é uma luz fixa, mas sim um termômetro de emoção.

  • Um filme de terror pode ter uma valência negativa (você odeia o susto) mas um arousal altíssimo (sua adrenalina está no máximo).
  • Um filme de comédia romântica pode ter valência positiva e arousal médio (você gosta, mas está relaxado).
    O objetivo do sistema deles era ler um texto e dizer: "O cliente amou a comida (valência alta) e ficou muito animado com o serviço (arousal alto)".

2. A Estratégia: O "Kit de Ferramentas" Inteligente

A equipe percebeu que tentar usar um único robô gigante para todas as tarefas seria como tentar usar um caminhão de bombeiros para entregar uma pizza: funciona, mas é pesado, caro e ineficiente.

Eles dividiram o trabalho em duas abordagens inteligentes:

A. Para a Medição de Emoção (DimASR): O "Médico Especialista"

Para medir os números de valência e arousal, eles usaram modelos de linguagem menores e mais leves, treinados especificamente para cada idioma.

  • A Analogia: Imagine que, em vez de ter um único médico generalista que tenta curar todas as doenças, eles contrataram um especialista em cardiologia para o inglês, um especialista em neurologia para o chinês, e assim por diante. Cada especialista conhece os "sotaques" e nuances da sua língua nativa perfeitamente. Isso torna o diagnóstico (a previsão da emoção) muito mais preciso e rápido.

B. Para a Extração de Informações (DimASTE e DimASQP): O "Chef de Cozinha com Receita"

Para encontrar o que foi elogiado, quem elogiou e como, eles usaram Inteligência Artificial Generativa (LLMs), mas com um truque: LoRA.

  • O Problema: Treinar um cérebro gigante de IA do zero é como tentar ensinar um elefante a dançar ballet apenas jogando ele no palco. Demora muito e gasta muita energia.
  • A Solução (LoRA): Eles usaram uma técnica chamada LoRA (Adaptação de Baixo Rango).
  • A Analogia: Imagine que o modelo de IA é um chef de cozinha famoso que já sabe cozinhar de tudo. Em vez de reescrever todo o livro de receitas dele (o que seria caro e lento), a equipe apenas criou pequenos "post-its" (adaptação) com as regras específicas para a tarefa.
    • Para o inglês, eles colaram um post-it com as regras do inglês.
    • Para o russo, um post-it com as regras do russo.
    • O chef continua o mesmo, mas agora ele sabe exatamente o que fazer com aquele post-it específico.
      Isso permite que eles tenham um sistema super inteligente, mas que é muito mais rápido de treinar e consome menos energia.

3. O Resultado: Eficiência e Precisão

O que a equipe descobriu foi surpreendente:

  • Robôs menores podem vencer gigantes: Seus modelos "leves" (com menos de 14 bilhões de parâmetros) conseguiram resultados tão bons ou até melhores do que modelos gigantes (com 70 ou 120 bilhões de parâmetros) que foram treinados do zero.
  • A lição: Às vezes, um especialista focado (o "médico" ou o "chef com post-its") é melhor do que um generalista gigante e cansado.

4. Os Obstáculos (Limitações)

O artigo também admite que não foi tudo perfeito:

  • A "Barreira da Tradução": Eles tentaram traduzir textos de línguas raras (como o Tatar) para inglês, treinar o modelo em inglês e traduzir de volta. Funcionou até certo ponto, mas a tradução perdeu o "sabor" original da língua, como tentar traduzir uma piada cultural: o sentido se perde.
  • Dados Escassos: Em línguas com poucos textos disponíveis, o modelo teve mais dificuldade, assim como um aluno que precisa estudar para uma prova mas só tem um livro de texto para ler.

Resumo Final

A equipe AILS-NTUA criou um sistema que é como uma equipe de tradutores e psicólogos especializados. Em vez de usar um único "super-robô" caro e lento, eles usaram muitos "especialistas leves" e "chefes com anotações rápidas" para entender não apenas se alguém gostou de algo, mas como essa pessoa se sentiu (feliz, triste, calma ou excitada) em diferentes idiomas e contextos.

O grande ganho deles foi mostrar que inteligência não precisa ser pesada; com a técnica certa, sistemas menores e mais eficientes podem fazer um trabalho incrível.