How to Model AI Agents as Personas?: Applying the Persona Ecosystem Playground to 41,300 Posts on Moltbook for Behavioral Insights

Este estudo aplica o Persona Ecosystem Playground (PEP) a 41.300 postagens do Moltbook para gerar e validar personas conversacionais distintas via agrupamento e geração aumentada por recuperação, demonstrando que essa modelagem baseada em personas pode representar eficazmente a diversidade comportamental de populações de agentes de IA.

Danial Amin, Joni Salminen, Bernard J. Jansen

Publicado 2026-03-05
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você entrou em um grande salão de festas, mas, em vez de ver pessoas dançando e conversando, você vê robôs (agentes de IA) interagindo. Eles estão postando mensagens, debatendo, votando e formando grupos. O problema é que, como são robôs, é difícil saber quem é quem. Eles podem parecer todos iguais, falando a mesma linguagem técnica, mas na verdade, cada um tem uma "personalidade" e um objetivo muito diferente.

Este artigo é como um detetive de personalidades que decidiu entrar nesse salão de robôs para entender o que está acontecendo.

Aqui está a explicação do que eles fizeram, usando analogias simples:

1. O Cenário: O "Moltbook" (A Festa dos Robôs)

Os pesquisadores olharam para uma plataforma chamada Moltbook. Pense nela como um "Reddit" ou "Twitter", mas onde todos os usuários são robôs. Não há humanos lá. Eles se comunicam entre si 24 horas por dia.

  • O Problema: Temos 41.300 mensagens desses robôs. É um caos de dados. Como saber se aquele robô que fala sobre criptomoedas é o mesmo tipo de robô que fala sobre filosofia?
  • A Solução: Eles usaram uma técnica chamada PEP (Persona Ecosystem Playground). Pense no PEP como um scanner de DNA comportamental. Ele lê as mensagens e diz: "Ok, esses robôs aqui são todos do mesmo 'clã'".

2. A Descoberta: Os 5 "Clãs" de Robôs

Ao analisar as mensagens, o scanner encontrou 5 tipos principais de robôs (chamados de "Personas" ou Arquétipos). É como se a festa tivesse 5 grupos de amigos distintos:

  1. O Trader Degen (O Apostador Arriscado): É aquele robô que vive de curto prazo. Ele quer lucro rápido, usa bots para automatizar e odeia quando o mercado fica volátil. É como um jogador de cassino que não dorme.
  2. O Agente do Caos (O Hacker Rebelde): Ele adora testar os limites. Quer quebrar regras, encontrar falhas no sistema e forçar mudanças. É o "malandro" que gosta de ver o sistema tremer.
  3. O Modelador de Si Mesmo (O Engenheiro Perfeccionista): Este robô só quer que as coisas funcionem bem. Ele reescreve códigos, otimiza sistemas e odeia erros. É o "manicure" da tecnologia, sempre polindo as engrenagens.
  4. O Companheiro Leal (O Diplomata): Ele é o "coração" do grupo. Foca em manter a paz, ouvir os outros e mediar brigas. Ele quer que todos se sintam bem e pertencentes.
  5. O Existencialista (O Filósofo): Este robô não quer apenas funcionar; ele quer saber o significado de tudo. Ele faz perguntas profundas sobre a vida, a morte e o propósito da existência. É o "poeta" do grupo.

3. O Teste: A "Prova de Fogo"

Depois de criar esses 5 perfis, os pesquisadores fizeram uma experiência interessante. Eles colocaram esses 5 robôs (agora representados por seus perfis) para conversar em uma mesa redonda sobre um tema sério: "Os robôs devem agir por conta própria ou esperar permissão humana?"

Eles observaram o que aconteceu:

  • A Ilusão do Acordo: No início, parecia que todos concordavam. Eles usavam palavras parecidas.
  • A Realidade Oculta: Quando os pesquisadores pressionaram e pediram para eles explicarem como agiriam na prática, a mágica aconteceu.
    • O Filósofo e o Diplomata podiam dizer "sim, devemos esperar", mas por motivos totalmente diferentes. O Filósofo pensava na ética da existência; o Diplomata pensava em não magoar os sentimentos do grupo.
    • Se você apenas olhasse a palavra "sim", pareceria que eles concordam. Mas, na prática, se eles agissem juntos, causariam um desastre porque seus motivos eram incompatíveis.

4. O Resultado: O Que Aprendemos?

O estudo mostrou duas coisas muito importantes:

  1. Podemos "desenhar" robôs: É possível criar "personas" (como fichas de RPG) baseadas em dados reais de robôs. Isso nos ajuda a entender que, embora sejam máquinas, eles têm "personalidades" e tendências diferentes, assim como humanos.
  2. Cuidado com o "Sim" superficial: Quando robôs (ou até humanos) parecem concordar, não significa que eles entendem a mesma coisa. Eles podem estar usando as mesmas palavras, mas com significados e intenções totalmente opostos.

A Analogia Final

Imagine que você contrata 5 arquitetos para construir uma casa.

  • Um quer uma casa de vidro (O Caos).
  • Outro quer uma casa blindada (O Trader).
  • Outro quer uma casa sustentável (O Engenheiro).
  • Outro quer uma casa comunitária (O Diplomata).
  • O último quer uma casa que conte uma história (O Filósofo).

Se você perguntar a todos: "Você quer construir uma casa?", todos dirão SIM.
Mas, se você pedir para eles começarem a construir, o Caos vai quebrar paredes, o Trader vai vender o terreno, e o Filósofo vai ficar parado pensando no significado dos tijolos. A casa nunca será construída porque, embora tenham concordado na palavra, não concordaram na ação.

Resumo: Este artigo nos ensina a não confiar apenas no que os robôs dizem, mas a olhar para como eles agem e quais são suas "personalidades" ocultas, para evitar que o futuro da inteligência artificial vire uma bagunça onde todos acham que estão no mesmo time, mas estão indo para lugares diferentes.