Design Guidance Towards Addressing Over-Reliance on AI in Sensemaking

Este artigo propõe princípios de projeto preliminares para sistemas de Consciência de Grupo (GATs) aumentados por IA Generativa que, ao invés de fornecer instruções explícitas que levam à dependência excessiva, utilizam visualizações implícitas de dados colaborativos para gerar conflito cognitivo e fomentar a elaboração autônoma e o sentido coletivo.

Yihang Zhao, Wenxin Zhang, Amy Rechkemmer, Albert Meroño Peñuela, Elena Simperl

Publicado Wed, 11 Ma
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você e seus amigos estão tentando montar um quebra-cabeça gigante em uma mesa. O objetivo é entender a imagem completa juntos (isso é o que os pesquisadores chamam de "sentido" ou sensemaking).

Agora, imagine que vocês contratam um assistente superinteligente, uma Inteligência Artificial (IA), para ajudar.

O Problema: O Assistente que "Manda"
O artigo alerta que, se essa IA for mal projetada, ela vira um "chefe" irritante. Ela chega e diz: "Faça a peça azul aqui, agora pegue a vermelha, você está falando demais, você está muito calado, vamos mudar a ordem da conversa."
Isso é chamado de instrução explícita. O grupo para de pensar por conta própria, apenas obedece às ordens. A criatividade e a discussão real morrem porque todos estão apenas seguindo um roteiro. É como se a IA resolvesse o quebra-cabeça por vocês, e vocês apenas passassem as peças.

A Solução: O Espelho que Mostra a Realidade
Os autores propõem usar ferramentas chamadas GATs (Ferramentas de Consciência de Grupo). Em vez de dar ordens, essas ferramentas funcionam como um espelho mágico.
Imagine que o espelho mostra, sem dizer uma palavra, que um amigo está segurando 10 peças azuis enquanto outro está com apenas 1. O grupo a diferença, percebe o problema e decide: "Ei, vamos conversar sobre isso!". Isso cria um "conflito cognitivo" (uma pequena tensão saudável) que faz o cérebro trabalhar e a discussão fluir. Isso é orientação implícita.

A Grande Ideia: Misturar o Espelho com a IA
O artigo pergunta: Como podemos usar a nova IA generativa (como o ChatGPT) dentro desse espelho, sem transformar o espelho em um chefe?

A resposta é usar a IA para ler o que vocês estão realmente dizendo e fazendo, mas mostrar os resultados de forma que o grupo tenha que interpretá-los.

O texto traz três dicas principais, usando analogias simples:

  1. Não use a IA para tudo (A Cozinha e o Garçom):
    Para coisas simples, como contar quantas vezes alguém falou, não precisa de IA. Um sistema simples de contagem (como um garçom anotando pedidos) funciona melhor e é mais rápido. A IA deve ser usada para coisas complexas, como entender o que as pessoas estão sentindo ou se elas estão realmente concordando ou apenas fingindo. A IA é o chef que analisa o sabor, não o garçom que apenas entrega o prato.

  2. A Pintura de Fundo (O Mapa com Cores):
    Pense em um gráfico que mostra o conhecimento de cada um (como um radar). Tradicionalmente, ele mostra apenas o que as pessoas dizem que sabem.
    Com a IA, o gráfico ganha uma "pintura de fundo". Se o grupo diz que entende o tema, mas a IA analisa a conversa e vê que estão confusos, o fundo desse setor do gráfico fica mais claro ou muda de cor.
    O segredo: A IA não diz "Vocês estão confusos!". Ela apenas pinta o fundo de uma cor diferente. O grupo vê a cor estranha e pensa: "Por que essa parte está diferente? O que aconteceu?". A IA mostra a diferença, mas o grupo descobre o significado.

  3. O Botão "Segure para Ver" (A Lupa):
    Quando o grupo vê aquela cor diferente no gráfico, eles não devem apenas aceitar. Eles precisam de uma "lupa".
    Ao passar o mouse sobre a cor estranha, a IA mostra por que ela pintou assim: "Olhem, aqui vocês disseram X, mas na verdade falaram Y".
    Isso permite que o grupo leia a prova, discuta se a IA está certa e decida o que fazer. A IA não dá a resposta final; ela dá o ponto de partida para a conversa deles.

Resumo da Ópera
O objetivo não é criar uma IA que resolva os problemas do grupo. É criar uma IA que ajude o grupo a ver seus próprios problemas de uma forma nova, sem tirar a responsabilidade da mão deles.

É como se a IA fosse um guia turístico silencioso que aponta para uma paisagem interessante no mapa e diz: "Olhem ali, algo diferente está acontecendo". Mas quem decide se vai subir a montanha, se vai descer o vale ou se vai conversar sobre a vista, continua sendo o grupo. Isso mantém a autonomia e a inteligência humana vivas, mesmo com a ajuda da tecnologia.