Multilingual LLMs Struggle to Link Orthography and Semantics in Bilingual Word Processing

O estudo revela que os modelos de linguagem multilíngues, embora consigam reconhecer cognatos e não-cognatos, apresentam dificuldades significativas em desambiguar homógrafos interlinguais, demonstrando uma dependência excessiva de similaridades ortográficas em detrimento da compreensão semântica e uma falta de abordagem unificada para lidar com ambiguidades entre línguas.

Eshaan Tanwar, Gayatri Oke, Tanmoy Chakraborty

Publicado 2026-03-19
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que os Grandes Modelos de Linguagem (LLMs), como o ChatGPT, são como turistas superinteligentes que visitaram todos os países do mundo e leram quase todos os livros, mas nunca realmente viveram neles. Eles sabem as regras da gramática e podem conversar fluentemente, mas a pesquisa deste artigo revela que eles têm uma dificuldade peculiar: confundem palavras que se parecem, mas significam coisas diferentes.

Os pesquisadores do IIT Delhi decidiram testar essa habilidade com uma analogia divertida: a diferença entre primos gêmeos e irmãos separados.

1. Os Três Tipos de "Palavras"

Para entender o teste, precisamos conhecer os três personagens principais:

  • Os Cognatos (Os Primos Gêmeos): São palavras que se escrevem quase igual e significam a mesma coisa em dois idiomas.

    • Exemplo: "Blind" (Inglês) e "Blind" (Alemão). Ambos significam "cego".
    • O que acontece: Para os humanos e para os robôs, essas palavras são fáceis. É como reconhecer um primo gêmeo; você sabe quem é imediatamente. Os modelos de IA acertaram quase 100% aqui.
  • Os Não-Cognatos (Os Irmãos Separados): São palavras que significam a mesma coisa, mas se escrevem de forma totalmente diferente.

    • Exemplo: "Gato" (Português) e "Cat" (Inglês).
    • O que acontece: A IA consegue traduzir, mas não há "ajuda visual" na escrita.
  • Os Homógrafos Interlinguais (Os Irmãos Gêmeos Falsos): Aqui está a pegadinha. São palavras que se escrevem exatamente igual (ou quase), mas significam coisas totalmente diferentes em idiomas diferentes.

    • Exemplo: A palavra "Gift".
      • Em Inglês: Significa "Presente" (algo legal).
      • Em Alemão: Significa "Veneno" (algo mortal).
    • O problema: Se você mostrar a palavra "Gift" para um turista (a IA) sem contexto, ele fica confuso. Ele vê a forma escrita e pensa: "Ah, é presente!". Mas se o contexto for alemão, deveria ser veneno.

2. O Grande Teste: O Robô se Confunde?

Os pesquisadores deram três tipos de testes para cinco modelos de IA famosos (como LLaMA e Mistral):

Teste 1: Adivinhar o Significado (Sem Contexto)

Eles mostraram apenas a palavra isolada.

  • Resultado: Quando as palavras eram "primos gêmeos" (Cognatos), a IA acertava fácil. Mas quando eram "irmãos falsos" (Homógrafos como Gift), a IA falhou miseravelmente.
  • A Analogia: Imagine que você vê um carro vermelho. Se for um Ferrari, você sabe que é rápido. Mas se for um caminhão de bombeiros vermelho, você sabe que é um veículo de emergência. A IA, ao ver a palavra "Gift", olhou apenas para a "cor do carro" (a escrita) e ignorou o que o carro realmente faz (o significado). Ela achou que era "presente" mesmo quando deveria ser "veneno".
  • O Pior: Em alguns casos, a IA acertou menos do que se tivesse chutado aleatoriamente!

Teste 2: Entender o Significado Real

Eles perguntaram: "O que significa 'Gift'?" e deram duas opções.

  • Resultado: A IA teve dificuldade em lembrar o significado correto, independentemente de ser uma palavra fácil ou difícil.
  • A Lição: Isso sugere que a IA não "entende" o mundo como nós. Ela não sabe que um "presente" é algo que você dá a alguém e "veneno" é algo que mata. Ela apenas memorizou padrões de texto. É como um ator que decorou o roteiro, mas não sente a emoção da cena.

Teste 3: O Contexto da Frase (A Situação Real)

Aqui, eles colocaram a palavra dentro de uma frase.

  • Frase em Inglês: "The baby received a beautiful gift." (O bebê recebeu um lindo presente).
  • Frase em Alemão (com a palavra Gift): "Der Hund fraß das Gift." (O cachorro comeu o veneno).
  • Resultado: A IA conseguiu usar o contexto para adivinhar o significado em frases em inglês. Mas, quando a frase era em outro idioma (como alemão ou espanhol), a IA tendia a ignorar o contexto e continuar pensando na palavra como se fosse inglês.
  • A Analogia: É como se o turista estivesse no Brasil, lendo um livro em português, mas continuasse pensando em inglês. Se a frase diz "O cachorro comeu o gift", ele pensa "Ah, o cachorro comeu um presente!", mesmo que a frase inteira esteja em alemão. Ele não consegue "trocar de canal" mentalmente.

3. A Conclusão: O Robô é "Cego" para o Significado

O estudo conclui que os modelos de IA atuais são muito dependentes da aparência das palavras (ortografia) e pouco dependentes do significado real (semântica).

  • Para os Humanos: Quando vemos "Gift", nosso cérebro acende duas luzes ao mesmo tempo: "Presente" e "Veneno". O contexto da frase (se estamos falando de um aniversário ou de um acidente) apaga uma luz e deixa a outra brilhar.
  • Para a IA: Ela vê apenas a forma escrita. Se a palavra se parece com a do inglês, ela assume que é inglês, mesmo que a frase inteira esteja em outro idioma.

Em resumo:
Os modelos de linguagem são como bibliotecários incríveis que sabem onde está cada livro, mas muitas vezes não sabem o que está escrito dentro deles. Eles conseguem organizar as palavras perfeitamente, mas quando precisam decidir se uma palavra é "veneno" ou "presente" apenas olhando para a escrita, eles tendem a errar feio, especialmente quando não estão falando inglês.

Para que a IA seja realmente inteligente e útil em múltiplos idiomas, os pesquisadores dizem que precisamos ensinar os robôs a não apenas "ler" as palavras, mas a entender o mundo por trás delas, conectando a forma da palavra à sua verdadeira essência, assim como fazemos nós humanos.