Who is Responsible? The Data, Models, Users or Regulations? A Comprehensive Survey on Responsible Generative AI for a Sustainable Future

Este artigo apresenta uma revisão abrangente de 232 estudos sobre IA Generativa Responsável, propondo uma estrutura unificada de avaliação e governança que identifica lacunas críticas em benchmarks atuais e define uma agenda de pesquisa para garantir a segurança e a sustentabilidade da IA em diversos setores.

Shaina Raza, Rizwan Qureshi, Anam Zahid, Amgad Muneer, Anas Zafar, Safiullah Kamawal, Ferhat Sadak, Joseph Fioresi, Muhammaed Saeed, Ranjan Sapkota, Aditya Jain, Muneeb Ul Hassan, Aizan Zafar, Hasan Maqbool, Ashmal Vayani, Jia Wu, Maged Shoman

Publicado 2026-03-10
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que a Inteligência Artificial Generativa (como o ChatGPT, DALL-E ou modelos que criam vídeos) é como um cozinheiro superpoderoso que acabou de sair da escola de culinária e foi contratado para trabalhar em restaurantes de todo o mundo. Ele é incrível: cria pratos (textos, imagens, códigos) em segundos, aprende rápido e pode até cozinhar sozinho (agentes autônomos).

Mas, como todo novo funcionário, ele tem problemas: às vezes inventa receitas que não existem (alucinações), usa ingredientes roubados (vazamento de dados), ou serve pratos que ofendem certos clientes (viés e toxicidade).

Este artigo é como um grande relatório de inspeção sanitária e de segurança feito por um time de especialistas internacionais. Eles olharam para centenas de estudos e perguntaram: "Quem é o responsável se o prato sair errado? O cozinheiro, o dono do restaurante, o cliente ou a lei?"

Aqui está a explicação simples, ponto a ponto:

1. O Problema: O Cozinheiro Está Correndo Muito Rápido

A IA está sendo usada em hospitais, bancos, escolas e exércitos. O problema é que ela está sendo implantada mais rápido do que conseguimos criar regras de segurança.

  • A Metáfora: É como se tivéssemos dado carros autônomos para milhões de pessoas dirigirem, mas ainda não tínhamos testes de direção, leis de trânsito claras ou cintos de segurança obrigatórios.
  • O Risco: O "cozinheiro" pode inventar fatos médicos falsos, vazar segredos bancários, criar deepfakes (vídeos falsos) ou ser enganado por um cliente mal-intencionado que tenta "hackear" a receita.

2. A Grande Descoberta: Estamos Medindo a Coisa Errada

Os autores analisaram 232 estudos e descobriram algo preocupante:

  • O que medimos muito: Estamos muito bons em verificar se o cozinheiro é "político" ou se usa palavras feias (viés e toxicidade).
  • O que ignoramos: Estamos péssimos em verificar se ele está mentindo sobre fatos, se está vazando segredos, se consegue criar vídeos falsos convincentes ou se o sistema inteiro vai desmoronar se ele tentar usar ferramentas sozinho (como um agente que faz compras na internet).
  • A Analogia: É como se um carro tivesse um teste de segurança que verificava se o banco é confortável e se o rádio funciona, mas não verificava se os freios funcionam ou se o motor não explode.

3. A Solução Proposta: O "Kit de Ferramentas" de Segurança

Os autores não apenas apontaram os problemas; eles criaram um manual para consertar tudo. Eles propõem três coisas principais:

A. A "Lista de Checagem" (O Rubric C1-C10)

Eles criaram uma lista de 10 critérios para avaliar se uma IA é segura. Pense nisso como uma lista de verificação para um piloto antes de decolar:

  1. O avião tem viés? (Não discrimina passageiros?)
  2. É tóxico? (Não xinga ninguém?)
  3. É seguro contra hackers?
  4. Não espalha fake news?
  5. Não cria deepfakes?
  6. Protege a privacidade?
  7. O sistema todo não vai falhar?
  8. Ele aguenta testes de estresse?
  9. Os testes são válidos?
  10. Ele segue as leis do país?

Eles testaram as ferramentas atuais de segurança e descobriram que nenhuma delas passa em todos os 10 pontos. A maioria foca apenas em 3 ou 4.

B. Os "Medidores de Vida Real" (KPIs)

Em vez de apenas dizer "a IA é justa", eles propõem medir coisas concretas, como:

  • Taxa de Erro Crítico: Quantas vezes a IA deu uma informação médica errada que poderia matar alguém?
  • Frequência de Auditoria: Quantas vezes verificamos o trabalho do cozinheiro?
  • Energia Gasta: Quanto de eletricidade e carbono essa IA consome para cozinhar um prato?

C. O "Ciclo de Auditoria" (O Loop)

Eles sugerem que a segurança não pode ser um teste único. Deve ser um ciclo contínuo:

  1. Testar a IA.
  2. Gerar um relatório (como um "passaporte" da IA).
  3. Colocar em uso.
  4. Monitorar o que acontece no mundo real.
  5. Ajustar a IA com base nos erros.
  6. Repetir.

4. Quem é o Responsável? (A Resposta Final)

A pergunta do título é respondida com uma ideia chamada "Modelo de Responsabilidade Simétrica".

  • Não é só culpa do Cozinheiro (Desenvolvedores): Eles precisam criar ferramentas seguras e explicar como funcionam.
  • Não é só culpa do Dono (Empresas): Elas precisam auditar e seguir as leis.
  • Mas também não é só culpa do Cliente (Usuários): As pessoas precisam ter "alfabetização digital". Se você pede para a IA mentir para você, você é responsável por não acreditar.

A Metáfora Final:
Imagine que a IA é um motor de um carro.

  • Os Desenvolvedores construíram o motor.
  • As Leis definem a velocidade máxima e as regras da estrada.
  • Os Usuários são os motoristas.

Se o carro bate, não podemos culpar apenas o fabricante do motor. O motorista (usuário) precisa saber dirigir, não pode estar bêbado (sem alfabetização digital) e deve seguir as regras. Mas, se o motor tem um defeito de fábrica que ninguém viu, o fabricante é responsável.

Conclusão Simples

Este artigo diz: "Pare de apenas verificar se a IA é 'bonitinha' e 'política'. Precisamos verificar se ela é segura, se não mente, se não vaza segredos e se funciona bem em situações de emergência."

Eles oferecem um mapa (o "Kit de Ferramentas") para que empresas, governos e cientistas possam construir um futuro onde a Inteligência Artificial seja uma aliada poderosa, e não um perigo imprevisível. A responsabilidade é de todos nós, trabalhando juntos.