Each language version is independently generated for its own context, not a direct translation.
Imagine que a internet é uma grande cidade. Nela, existem prédios seguros (como os grandes sites de IA corporativos) e também existem vielas escuras e mercados clandestinos.
Este artigo, escrito por Michelle Ding e Harini Suresh, fala sobre um problema grave que acontece nessas "vielas": a criação de imagens íntimas falsas de adultos (o famoso "deepfake pornográfico") sem o consentimento das vítimas.
Aqui está a explicação do que eles descobriram, usando analogias simples:
1. O "Ecossistema Técnico Malicioso" (A Fábrica de Falsificações)
Os autores chamam o conjunto de ferramentas que cria essas imagens de "Ecossistema Técnico Malicioso".
- A Analogia: Pense na IA corporativa (como a do Google ou Microsoft) como uma fábrica de carros que tem um gerente de segurança rigoroso. Eles não deixam você construir um carro para atropelar pessoas.
- O Problema: O "Ecossistema Malicioso" é como um mercado de peças de reposição e manuais de instrução que você encontra na internet. São códigos abertos (como o DeepFaceLab) e mais de 200 programas gratuitos que qualquer pessoa, mesmo sem saber programar, pode baixar.
- Como funciona: É como se alguém tivesse um manual de "Como transformar uma foto de uma pessoa em uma imagem nua" e o deixasse em uma prateleira pública. Qualquer um pode pegar, usar em 5 minutos e criar uma imagem falsa. O resultado pode não ser perfeito (às vezes parece um desenho ruim), mas ainda causa um dano terrível.
2. Por que as regras atuais não funcionam?
O governo e as empresas de tecnologia tentam criar regras para parar isso, mas os autores dizem que as regras atuais estão erradas ou incompletas. Eles apontam três falhas principais:
Falha 1: A ilusão de que "se parece falso, não faz mal"
- A Regra Atual: Muitas regras focam em transparência. A ideia é: "Se a imagem tiver um selo dizendo 'Isso é IA' ou 'Isso é falso', ninguém vai se machucar, pois todos saberão que é mentira".
- A Realidade: Isso é como dizer: "Se um assalto for feito com uma arma de brinquedo, não é um crime".
- O Dano: Mesmo que a imagem seja claramente falsa e tenha um selo de "IA", a vítima ainda sofre. Ela pode perder o emprego, ser humilhada, sofrer violência física ou psicológica. O simples fato de ver a própria imagem em um contexto sexual não consentido é devastador, não importa se a imagem é "boa" ou "ruim". A transparência não cura a dor.
Falha 2: Misturar "Crianças" com "Adultos"
- A Regra Atual: As leis e ferramentas de segurança tratam imagens de abuso infantil (CSAM) e imagens de abuso de adultos (NCII) como a mesma coisa.
- A Analogia: É como tentar usar o mesmo filtro de segurança de aeroporto para impedir que crianças entrem com facas e que adultos entrem com passaportes falsos.
- O Problema: Para crianças, a lei é clara: qualquer imagem sexual é crime, ponto final. As ferramentas de segurança usam bancos de dados de imagens ilegais de crianças para bloquear tudo.
- Para Adultos: Não existe um banco de dados de "todas as fotos de adultos" para bloquear. O problema é o consentimento. Uma foto de uma pessoa adulta é legal, mas usá-la sem permissão para criar pornografia é ilegal. As ferramentas atuais não sabem diferenciar uma foto legítima de uma usada de forma maliciosa, porque elas foram feitas para caçar crimes óbvios (como o de crianças), não para proteger a autonomia de adultos.
Falha 3: Focar nos "Grandes Vilões" e ignorar os "Pequenos"
- A Regra Atual: As empresas e governos estão focando em regular as grandes empresas de tecnologia (como a Stability AI), pedindo que elas bloqueiem comandos de texto que gerem pornografia.
- A Realidade: O "Ecossistema Malicioso" não usa comandos de texto. Ele usa ferramentas de troca de rosto. Você não digita "crie uma imagem nua"; você faz o upload de uma foto da sua vizinha e clica em "transformar".
- O Erro: É como a polícia focar em prender o dono de um cassino ilegal, mas ignorar que existem centenas de apostadores usando aplicativos clandestinos em seus celulares para jogar. As regras atuais não conseguem parar as ferramentas simples e gratuitas que estão nas mãos de qualquer pessoa.
3. A Conclusão: O que precisamos mudar?
Os autores dizem que precisamos mudar a mentalidade.
- Não culpe apenas o usuário: Não adianta dizer "foi culpa de quem usou a ferramenta". A própria ferramenta foi criada com a intenção maliciosa de causar dano.
- Proteger a vítima, não apenas a imagem: O foco não deve ser apenas em detectar se a imagem é falsa, mas em impedir que a ferramenta seja criada e distribuída.
- Uma abordagem centrada na sobrevivente: As soluções técnicas precisam ser desenhadas pensando na dor da vítima, não apenas na tecnologia. Se a tecnologia permite que qualquer pessoa crie abuso em minutos, a tecnologia em si é o problema que precisa ser governado.
Resumo final:
A tecnologia atual de IA está sendo usada como uma ferramenta de violência. As regras atuais tentam colocar um "adesivo de aviso" na ferramenta ou focar apenas nos grandes fabricantes, mas isso não para a violência. Precisamos regular o mercado clandestino de ferramentas que permite que qualquer pessoa seque a imagem de alguém para abusar, reconhecendo que, mesmo sendo "falso", o dano é real e devastador.