Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI

O artigo propõe o framework NormCoRe, um método inovador que traduz sistematicamente experimentos com sujeitos humanos para ambientes de Inteligência Artificial Multiagente (MAAI), permitindo a análise de normas coletivas e demonstrando como as julgamentos normativos dos agentes variam conforme o modelo base e a linguagem utilizada.

Luca Deck, Simeon Allmendinger, Lucas Müller, Niklas Kühl

Publicado 2026-03-13
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um grupo de amigos e decide fazer uma brincadeira para ver como eles dividiriam um bolo gigante. Eles discutem, debatem e chegam a um consenso sobre quem fica com o que. Agora, imagine que você substitui esses amigos por robôs superinteligentes (agentes de IA) e pede a eles que façam a mesma brincadeira.

O problema é que, se você apenas pedir para os robôs "fazerem o que os humanos fazem", você pode acabar com resultados estranhos ou enganosos. Por que? Porque um robô não é um humano. Ele não tem infância, não sente fome, não tem medo de ficar sem dinheiro e "pensa" de um jeito completamente diferente (baseado em dados e códigos, não em experiências de vida).

É aqui que entra o NormCoRe (Replicação de Terreno Comum Normativo), a ideia principal deste artigo.

O Problema: Traduzir, não Copiar

Os autores dizem que tentar fazer os robôs agirem exatamente como humanos é como tentar traduzir um poema de português para inglês apenas trocando palavra por palavra. A estrutura fica, mas a alma da poesia se perde.

Muitos estudos anteriores tratavam os robôs como se fossem "substitutos perfeitos" dos humanos. Eles diziam: "Olha, o robô escolheu a mesma divisão de bolo que o humano! Então, o robô é justo como o humano". O artigo diz: Espere aí! Isso pode estar errado. A escolha do robô pode ter sido influenciada pelo tipo de "cérebro" (modelo de IA) que usamos ou pelo idioma que usamos para dar as instruções a ele, e não necessariamente por uma "consciência moral".

A Solução: O NormCoRe como um "Guia de Tradução"

O NormCoRe é um novo método para estudar esses robôs. Em vez de tentar copiar os humanos, ele propõe traduzir o experimento. Pense nisso como um tradutor profissional que não apenas troca palavras, mas explica as nuances culturais.

O método divide o experimento em 4 camadas de tradução:

  1. O Cérebro (Modelo de Base): Quem é o "cérebro" do robô? É um modelo treinado com dados dos EUA? Da China? Isso é como escolher se o robô foi criado em uma escola de filosofia ou em uma fábrica de números. Isso muda como ele vê o mundo.
  2. A Identidade (O Agente): Quem o robô "acha" que é? Se você diz "você é um estudante universitário", o robô vai interpretar isso de acordo com seus dados. O NormCoRe exige que você defina exatamente como essa "persona" é construída.
  3. A Conversa (Interação): Como os robôs conversam entre si? Eles falam todos ao mesmo tempo? Um de cada vez? Quem tem a palavra? Isso é como organizar uma reunião: se você muda as regras de quem fala, o resultado da discussão muda.
  4. A Tarefa (O Trabalho): Como a brincadeira é apresentada? Quais são as regras do jogo?

O Experimento: O "Véu da Ignorância"

Para testar esse método, os autores pegaram um experimento clássico de filosofia chamado "Véu da Ignorância" (de John Rawls).

  • A ideia: Imagine que você vai nascer em uma sociedade, mas não sabe se será rico, pobre, inteligente ou não. Antes de nascer, você precisa escolher as regras de como a sociedade vai dividir a riqueza. Qual regra você escolheria para garantir que, não importa onde você nasça, você não passe fome?

O que eles descobriram?

  1. Robôs e Humanos concordam no geral: Tanto os humanos quanto os robôs tendem a escolher a regra de "maximizar a riqueza total, mas garantir um piso mínimo para os mais pobres".
  2. Mas os robôs são mais "agressivos" na concordância: Enquanto os humanos discutem muito e às vezes não concordam, os grupos de robôs chegam a um consenso muito rápido e quase idêntico. Eles são como um coro perfeitamente afinado, enquanto os humanos são um coral com vozes individuais.
  3. O segredo está nos detalhes: Se você mudar o modelo de IA (o "cérebro") ou mudar o idioma das instruções (de inglês para espanhol ou mandarim), a escolha dos robôs muda drasticamente! Um robô em inglês pode ser mais "egoísta" do que um robô em espanhol, não porque ele é diferente, mas porque os dados em que ele foi treinado são diferentes.

Por que isso importa?

Hoje, estamos começando a usar robôs para tomar decisões importantes: dividir recursos, julgar casos, organizar trânsito, etc.

Se não usarmos o NormCoRe, podemos achar que os robôs são "justos" porque eles imitam os humanos superficialmente. Mas, na verdade, podemos estar criando sistemas que são super-rápidos em chegar a um consenso, mas que são sensíveis a pequenas mudanças no código ou no idioma, o que pode ser perigoso.

A metáfora final:
Pense no NormCoRe como um manual de instruções para cozinheiros robóticos. Se você quer que um robô faça um bolo igual ao da sua avó, não basta dar a ele a receita. Você precisa explicar que a "farinha" dele é diferente, que o "forno" dele é digital e que o "paladar" dele foi treinado em receitas de outro país. O NormCoRe nos ensina a documentar essas diferenças para que, quando o robô servir o bolo, saibamos exatamente por que ele ficou daquele jeito e se é algo que podemos confiar.

Em resumo: Não tente fazer robôs serem humanos. Entenda como eles são, traduza as regras do jogo para a linguagem deles e documente tudo, para que possamos confiar nas decisões que eles tomam.