Like a Hammer, It Can Build, It Can Break: Large Language Model Uses, Perceptions, and Adoption in Cybersecurity Operations on Reddit

Este estudo analisa discussões em fóruns do Reddit sobre o uso de Grandes Modelos de Linguagem (LLMs) em operações de segurança, revelando que, embora os profissionais valorizem a eficiência para tarefas de baixo risco, preocupações com confiabilidade, verificação e riscos de segurança limitam significativamente sua autonomia e adoção em larga escala.

Autores originais: Souradip Nath, Chih-Yi Huang, Aditi Ganapathi, Kashyap Thimmaraju, Jaron Mink, Gail-Joon Ahn

Publicado 2026-04-14
📖 5 min de leitura🧠 Leitura aprofundada

Esta é uma explicação gerada por IA do artigo abaixo. Não foi escrita nem endossada pelos autores. Para precisão técnica, consulte o artigo original. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

Imagine que o centro de operações de segurança de uma empresa (o SOC) é como uma torre de controle de um aeroporto muito movimentado. Lá, centenas de "controladores de tráfego" (analistas de segurança) ficam olhando telas cheias de alertas o dia todo, tentando descobrir quais são aviões em perigo real e quais são apenas pássaros ou reflexos do sol (falsos alarmes). Eles estão exaustos, sobrecarregados e muitas vezes prestes a entrar em colapso.

Recentemente, chegou uma nova tecnologia: Inteligência Artificial Generativa (os "LLMs"). Os vendedores de tecnologia prometem que essas IAs são como robôs assistentes mágicos que podem fazer todo o trabalho pesado, triar os aviões e até pilotar as aeronaves sozinhos.

Este estudo, feito por pesquisadores da Universidade do Estado do Arizona e da TU Berlim, foi até o "Reddit" (um grande fórum de discussão online, como uma praça pública digital) para conversar com esses controladores de tráfego e entender o que eles realmente pensam sobre esses robôs. Eles analisaram quase 900 discussões reais.

Aqui está o resumo da história, usando analogias simples:

1. O Martelo e o Quebra-Cabeça (O que eles estão usando?)

Os pesquisadores descobriram que os analistas não estão usando tanto os "robôs de segurança" caros e especializados que as empresas vendem. Em vez disso, eles estão usando ferramentas de uso geral (como o ChatGPT ou o Copilot da Microsoft) como se fossem canivetes suíços.

  • A Analogia: É como se, em vez de comprar um martelo de carpinteiro específico para cada tipo de prego, os analistas estivessem usando um martelo universal que eles já tinham em casa para consertar tudo. Eles usam essas ferramentas gerais para escrever códigos, criar relatórios e organizar ideias, mas ainda têm medo de usá-las para as tarefas mais críticas e perigosas.

2. O Assistente de Estágio vs. O Chefe (Como eles usam?)

Os analistas veem a IA como um estagiário muito inteligente, mas que precisa de supervisão constante.

  • O que eles fazem: Eles usam a IA para tarefas de baixo risco, como "escrever o rascunho de um relatório" ou "explicar o que significa aquele código estranho". É como pedir ao estagiário para organizar a mesa de trabalho.
  • O que eles NÃO fazem: Eles não deixam a IA tomar decisões sozinha, como "fechar o portão do aeroporto" ou "desligar um servidor". A IA pode sugerir, mas o humano tem que dar o "ok".
  • O Motivo: Se o estagiário errar e fechar o portão errado, o aeroporto para. Na segurança, um erro da IA pode deixar a empresa vulnerável a hackers.

3. A Confiança e o "Alucinação" (Os Problemas)

Aqui está o grande problema: a IA às vezes alucina.

  • A Analogia: Imagine que você pede ao seu assistente para encontrar um documento perdido. Ele traz um documento, mas o conteúdo é inventado por ele, com uma confiança total. No mundo da segurança, isso é perigoso. Se a IA inventar uma prova de que um hacker está lá, você pode gastar horas investigando um fantasma. Se ela inventar que não há hacker quando há, a empresa pode ser invadida.
  • O Resultado: Os analistas dizem: "A IA é rápida e útil, mas eu tenho que verificar tudo o que ela faz". Isso cria um trabalho extra: eles ganham tempo na criação, mas perdem tempo na verificação.

4. O Custo e a Promessa Vazia

Muitos analistas estão céticos em relação às grandes promessas das empresas de tecnologia.

  • A Analogia: É como comprar um carro autônomo de luxo que promete dirigir sozinho, mas que custa o preço de uma casa e, às vezes, decide parar no meio da estrada porque não entendeu uma placa de trânsito.
  • A Realidade: Os analistas dizem que muitas vezes é mais barato e seguro contratar mais pessoas ou usar ferramentas antigas e confiáveis do que pagar caro por uma IA que ainda não é perfeita e que pode vazar segredos da empresa (já que você precisa "ensinar" a IA com dados da sua empresa).

5. O Dilema do Futuro (O Perigo para os Trabalhadores)

Há uma preocupação triste no final da história.

  • A Analogia: Imagine que a IA começa a fazer o trabalho dos aprendizes (os estagiários). O problema é que, para se tornar um "Mestre" (um analista sênior experiente), você precisa ter passado por todas as tarefas difíceis e chatas de aprendendo na prática.
  • O Perigo: Se a IA fizer todo o trabalho de nível básico, como os novos analistas vão aprender a ser bons? Eles podem nunca ganhar a experiência necessária para supervisionar a IA quando ela errar. É um ciclo vicioso: precisamos de humanos experientes para vigiar a IA, mas a IA está impedindo que os humanos ganhem essa experiência.

Conclusão: O Martelo Constrói, Mas Também Quebra

O título do estudo diz: "Como um Martelo, Pode Construir, Pode Quebrar".

  • Construir: A IA ajuda a escrever relatórios, organizar dados e acelerar tarefas chatas, tornando o trabalho do analista mais leve.
  • Quebrar: Se confiarmos demais nela sem supervisão, ela pode criar falsos alarmes, vazar dados ou fazer a empresa perder o controle.

A lição final: A IA é uma ferramenta poderosa, mas no mundo da segurança cibernética, ela ainda é apenas um assistente, não o chefe. Os humanos precisam manter o controle, verificar o trabalho e garantir que o "robô" não leve a empresa para o abismo.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →