Manipulating language models' training data to study syntactic constraint learning: the case of English passivization

Este estudo demonstra que modelos de linguagem neural aprendem as restrições de passivação no inglês a partir de evidências presentes nos dados de treinamento, sendo que tanto a frequência de uso (entrenchment) quanto a semântica (afetação) contribuem de forma independente para essas restrições, validando a manipulação de dados de treinamento como método eficaz para investigar a aquisição da linguagem.

Cara Su-Yi Leong, Tal Linzen

Publicado 2026-03-05
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que a linguagem é como um grande jogo de LEGO. Existem regras gerais para montar as peças: geralmente, você pode pegar uma ação (como "empurrar") e inverter a ordem para dizer quem sofreu a ação ("foi empurrado"). Isso funciona para a maioria das peças.

Mas, assim como em qualquer jogo, existem exceções. Algumas peças simplesmente não se encaixam de cabeça para baixo. Por exemplo, você pode dizer "A reunião durou uma hora", mas não pode dizer "Uma hora foi durada pela reunião". Isso soa estranho e errado para qualquer falante nativo de inglês.

A grande pergunta que os autores deste estudo queriam responder é: Como uma criança (ou um computador) aprende essas exceções? Ninguém vai até a criança e diz: "Ei, o verbo 'durar' não pode ser usado dessa forma". A criança nunca ouviu a frase errada, então como ela sabe que ela é proibida?

Para descobrir isso, os pesquisadores usaram Inteligência Artificial (modelos de linguagem) como se fossem "bebês digitais" para testar duas teorias principais:

1. A Teoria do "Hábito" (Entrenchment)

Imagine que você vai a uma festa e vê alguém dançando um estilo de música específico o tempo todo, mas nunca vê essa pessoa fazendo um movimento diferente. Com o tempo, você começa a achar que aquela pessoa não sabe fazer o outro movimento, mesmo que ela nunca tenha dito isso.

  • A teoria: Se um verbo aparece muito no modo ativo ("O tempo durou") e quase nunca no passivo ("Foi durado pelo tempo"), o cérebro (ou o computador) aprende que o passivo é proibido para aquele verbo apenas pela falta de exemplos. É uma questão de estatística e frequência.

2. A Teoria do "Impacto" (Affectedness)

Agora, imagine que você está jogando uma bola. Se você joga a bola e ela bate na parede e muda de lugar, a parede foi "afetada". Mas se você diz "O tempo durou uma hora", o tempo não foi "batido" ou "mudado" pela reunião. Ele apenas existiu.

  • A teoria: O passivo só funciona se a coisa que recebe a ação (o sujeito da frase passiva) sofrer uma mudança real. Se o verbo não descreve uma ação que "afeta" o objeto, ele não pode ser usado no passivo.

O Experimento: "Moldando a Dieta" da IA

Os pesquisadores não podidos fazer um experimento com crianças reais (seria antiético e impossível controlar o que uma criança ouve por anos). Então, eles criaram modelos de linguagem (como versões menores do ChatGPT) e fizeram algo genial: eles alteraram a "dieta" de dados desses modelos.

Pense nisso como se você estivesse treinando um cachorro, mas em vez de dar petiscos, você controla exatamente quais frases ele lê.

  • Experimento 1 (O Teste de Realidade): Eles primeiro verificaram se a IA aprendia as regras como os humanos. Resultado: Sim! A IA julgou as frases estranhas quase da mesma forma que as pessoas, mostrando que ela aprendeu as exceções apenas lendo textos comuns.

  • Experimento 2 (A Dieta do Hábito): Eles pegaram um verbo que poderia ser usado no passivo (como "empurrar") e removeram quase todas as vezes que ele aparecia no passivo nos textos de treino.

    • Resultado: A IA começou a achar que esse verbo não podia ser usado no passivo. Isso prova que a frequência (o hábito) importa muito.
  • Experimento 3 (A Dieta do Significado): Eles pegaram um verbo estranho e o colocaram em frases onde o objeto sofria uma mudança forte (alta "afetação") versus frases onde não sofria nada.

    • Resultado: A IA aprendeu que verbos usados em contextos de "impacto" eram mais fáceis de usar no passivo. O significado também importa.
  • Experimento 4 (O Verbo Novo): Eles inventaram um verbo que nunca existiu e o ensinaram à IA apenas no modo ativo, mas em contextos diferentes.

    • Resultado: Quanto mais vezes a IA via o verbo no ativo (sem ver no passivo), mais ela achava que ele não podia ser usado no passivo. E, curiosamente, se o contexto fosse de "impacto", ela era um pouco mais tolerante, mas a quantidade de vezes que ela via o verbo era o fator mais forte.

A Conclusão: É uma Mistura de Ambos!

O estudo descobriu que não é apenas uma coisa ou outra. É como cozinhar um bolo: você precisa de farinha (frequência/hábito) e ovos (significado/impacto).

  1. Frequência é o chef: Se você nunca vê uma frase, você acha que ela é proibida.
  2. Significado é o tempero: Se a frase faz sentido lógico (o objeto foi afetado), você é mais propenso a aceitá-la.

Mas, e o mais importante: os dois funcionam juntos, mas de forma independente. Um não depende do outro para funcionar.

Por que isso é legal?

Este estudo é como um laboratório de "ciência ficção" para a linguagem. Ele mostra que podemos usar computadores para testar como aprendemos, algo que seria impossível de fazer com humanos reais de forma tão controlada.

A lição final é que nosso cérebro (e nossas IAs) são mestres em pegar pistas indiretas. Nós não precisamos de um professor dizendo "não faça isso"; basta que a gente nunca veja alguém fazendo, ou que a ação não faça sentido lógico, e nós aprendemos a regra por conta própria. A linguagem é aprendida através de um equilíbrio sutil entre o que ouvimos muito e o que faz sentido.