The Moral Foundations Reddit Corpus

Este artigo apresenta o Moral Foundations Reddit Corpus, um conjunto de dados anotado manualmente com 16.123 comentários do Reddit baseados na Teoria das Fundações Morais atualizada, e demonstra que, apesar dos avanços, os grandes modelos de linguagem ainda ficam atrás dos modelos codificadores ajustados para tarefas subjetivas de detecção de sentimento moral, reforçando a necessidade contínua de corpora anotados por humanos para avaliação de alinhamento de IA.

Jackson Trager, Alireza S. Ziabari, Elnaz Rahmati, Aida Mostafazadeh Davani, Preni Golazizian, Farzan Karimi-Malekabadi, Ali Omrani, Zhihe Li, Brendan Kennedy, Georgios Chochlakis, Nils Karl Reimer, Melissa Reyes, Kelsey Cheng, Mellow Wei, Christina Merrifield, Arta Khosravi, Evans Alvarez, Morteza Dehghani

Publicado 2026-03-19
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que a internet é uma enorme praça pública onde milhões de pessoas conversam, discutem e compartilham ideias. Às vezes, essas conversas são sobre o clima ou receitas de bolo, mas muitas vezes são sobre coisas profundas: o que é justo, o que é certo, o que nos machuca e o que nos une.

Os cientistas de computador (especialistas em Inteligência Artificial) querem ensinar seus robôs a entenderem essas conversas profundas. Eles querem que a IA saiba quando alguém está falando sobre "cuidado com os outros", "justiça" ou "lealdade". Mas há um problema: ensinar uma máquina a entender sentimentos morais é como tentar ensinar um gato a fazer xadrez. É muito subjetivo e difícil.

Aqui está a história do Corpus Reddit das Fundações Morais (MFRC), explicada de forma simples:

1. O Problema: O Mapa Antigo e o Novo Terreno

Antigamente, os cientistas tinham um "mapa" muito bom para entender a moralidade na internet, feito com tweets do Twitter. Esse mapa se chamava Moral Foundations Twitter Corpus.

  • O problema: O Twitter é como um balde de água: as pessoas só podem escrever 280 caracteres. As conversas são curtas, rápidas e muitas vezes superficiais.
  • A solução: O Reddit é como um grande lago. As pessoas podem escrever textos longos, contar histórias completas e discutir em comunidades específicas (chamadas "subreddits"). O comportamento moral lá é diferente. Além disso, o "mapa" antigo precisava de uma atualização porque a ciência da moralidade evoluiu.

2. A Nova Ferramenta: O MFRC

Os autores criaram um novo conjunto de dados, o MFRC.

  • O que é: É uma coleção de 16.123 comentários do Reddit.
  • De onde vieram: Eles escolheram 12 comunidades diferentes, desde política americana e francesa até conselhos de relacionamento e confissões pessoais.
  • O "Mapa" Atualizado: Eles não usaram o mapa antigo. Usaram uma versão atualizada da teoria. Antes, a "Justiça" era um único conceito. Agora, a ciência diz que existem dois tipos diferentes de justiça:
    1. Igualdade: Todos devem ter o mesmo resultado (ex: todos ganham o mesmo salário).
    2. Proporcionalidade: O resultado deve ser baseado no esforço (ex: quem trabalha mais ganha mais).
    • Eles também adicionaram categorias como "Moralidade Fina" (quando alguém diz apenas "isso é errado" sem explicar o porquê) e "Moralidade Implícita" (quando o sentimento moral está escondido nas entrelinhas).

3. O Trabalho Humano: Os "Juízes"

Para criar esse mapa, eles não usaram robôs. Eles usaram humanos.

  • Eles contrataram 5 pessoas treinadas (como juízes de um tribunal) para ler cada um dos 16 mil comentários.
  • Cada comentário foi lido por pelo menos 3 juízes. Eles tinham que marcar: "Isso fala sobre cuidado?", "Isso fala sobre lealdade?", "Isso é moral ou não?".
  • Eles também anotaram o quanto estavam confiantes em suas escolhas. Isso é importante porque, às vezes, a moralidade é cinzenta e difícil de definir.

4. O Teste: Robôs vs. Humanos

Depois de criar o mapa, eles quiseram ver se os robôs (Inteligências Artificiais modernas) conseguiam usá-lo.

  • Os Participantes: Eles testaram modelos gigantes de IA (como o Llama e o Ministral) e modelos mais antigos e focados (como o BERT).
  • O Cenário: Eles deram aos robôs os textos e perguntaram: "Qual é o sentimento moral aqui?".
  • O Resultado Surpreendente: Mesmo com toda a tecnologia avançada, os robôs ainda estão atrás dos humanos.
    • Os modelos que foram "ensinados" especificamente com esses dados (fine-tuning) funcionaram melhor do que os robôs gigantes que apenas "adivinham" a resposta sem treino.
    • A lição: Para tarefas tão subjetivas quanto moralidade, ter um grande conjunto de dados feito por humanos é essencial. A IA ainda precisa de um "professor humano" para aprender a nuances.

5. Por que isso importa?

Imagine que você quer construir um carro autônomo. Você não quer que ele dirija apenas em pistas de corrida (o Twitter); você quer que ele dirija em estradas de terra, chuva e tráfego caótico (o Reddit e a vida real).

Este trabalho é como um manual de instruções atualizado para a IA. Ele ajuda a:

  1. Entender a polarização: Por que as pessoas brigam tanto online?
  2. Melhorar a IA: Criar robôs que entendem não apenas palavras, mas os valores por trás delas.
  3. Detectar viés: Mostrar que os dados que usamos para treinar a IA têm limitações (por exemplo, os "juízes" eram estudantes universitários, o que pode influenciar como eles veem o mundo).

Resumo em uma Analogia

Pense no MFRC como um dicionário de sentimentos morais que foi atualizado para a era moderna.

  • O Twitter era como um dicionário de gírias de 140 caracteres.
  • O Reddit é como um livro de contos completos.
  • Os Humanos foram os tradutores que escreveram as definições.
  • Os Robôs são os alunos que estão tentando aprender a língua. O estudo mostrou que, mesmo com os melhores livros didáticos, os alunos robôs ainda precisam de muito mais prática e supervisão humana para não cometerem erros graves ao julgar o que é "certo" ou "errado".

Em suma, este papel nos diz que, para a Inteligência Artificial ser realmente ética e entender o ser humano, ela precisa de mais dados humanos, mais nuances e um mapa moral que reflita a complexidade do mundo real, não apenas a velocidade dos tweets.