Like a Hammer, It Can Build, It Can Break: Large Language Model Uses, Perceptions, and Adoption in Cybersecurity Operations on Reddit

이 논문은 Reddit 의 사이버보안 포럼 데이터를 분석하여 보안 실무자들이 LLM 을 생산성 향상 도구로 활용하면서도 신뢰성 부족과 보안 위험으로 인해 자율적 사용을 제한하는 복잡한 양상을 규명하고, 이를 위한 안전한 도입 방안을 제시합니다.

원저자: Souradip Nath, Chih-Yi Huang, Aditi Ganapathi, Kashyap Thimmaraju, Jaron Mink, Gail-Joon Ahn

게시일 2026-04-14
📖 4 분 읽기☕ 가벼운 읽기

이것은 아래 논문에 대한 AI 생성 설명입니다. 저자가 작성하거나 승인한 것이 아닙니다. 기술적 정확성을 위해서는 원본 논문을 참조하세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

해커들의 새로운 조력자: "해머" 같은 AI 가 보안 세계를 어떻게 바꾸고 있는가?

이 논문은 사이버 보안 전문가들 (SOC 운영자) 이 Reddit 같은 온라인 커뮤니티에서 **거대 언어 모델 (LLM, 예: ChatGPT 등)**을 어떻게 사용하고 있는지, 그리고 그들에 대해 무엇을 생각하는지 조사한 연구입니다.

제목처럼 이 AI 는 **"해머"**와 같습니다. 잘 쓰면 건물을 지어주지만 (생산성 향상), 잘못 쓰면 건물을 무너뜨릴 수도 (보안 위협) 있기 때문입니다.

이 연구의 핵심 내용을 쉬운 비유와 함께 설명해 드리겠습니다.


1. 연구 배경: 왜 이 연구를 했을까요?

보안 센터 (SOC) 는 마치 24 시간 돌아가는 감시실과 같습니다. 매일 수천 개의 경보 (알림) 가 쏟아지는데, 전문가들은 이 중 진짜 해킹인지, 그냥 실수인지 (거짓 경보) 를 구별하느라 밤을 새웁니다. 사람들은 너무 지쳐서 "화재 경보가 너무 자주 울려서 진짜 불이 났을 때 무시하게 될까 봐 걱정"합니다.

이때 등장한 것이 **AI(LLM)**입니다. "AI 가 경보를 대신 봐주고, 해킹 수사를 도와주면 얼마나 좋을까?"라는 기대가 생겼죠. 하지만 실제로 전문가들은 이 AI 를 어떻게 쓰고 있을까요? 이 연구는 그 현실을 파악하기 위해 보안 전문가들이 모여 있는 온라인 커뮤니티의 대화 892 건을 분석했습니다.

2. 주요 발견: 전문가들은 무엇을 하고 있을까?

① "전문가용 도구"보다 "일반용 도구"를 더 많이 쓴다

  • 비유: 보안 전문가들은 전용으로 만든 고급 보안용 드릴보다는, 누구나 쓰는 **일반용 전동 드릴 (ChatGPT 등)**을 더 많이 사용합니다.
  • 사실: 연구 결과, 보안 전용 AI(예: Microsoft Security Copilot) 보다는 범용 AI 가 훨씬 더 자주 언급되었습니다. 보안 전용 도구들은 아직 생태계가 작고 잘 알려지지 않았습니다.

② 어디에 쓰나? "위험한 일"보다 "안전한 일"에 먼저 쓴다

  • 비유: AI 를 새로운 인턴으로 고용했다고 상상해 보세요.
    • 잘하는 일: 서류 정리, 보고서 작성, 간단한 코드 짜기, 복잡한 로그 해석하기. (이건 인턴에게 시켜도 괜찮죠.)
    • 못하는 일: 직접 해커를 막거나, 시스템을 끄거나, 중요한 결정을 내리는 것. (이건 인턴에게 맡기면 망할 수 있죠.)
  • 사실: 전문가들은 AI 를 보고서 작성이나 스크립트 작성 같은 생산성 향상 용도로는 적극 쓰지만, **실제 해킹 대응 (Incident Response)**이나 경보 차단 같은 중요한 결정은 AI 가 내리게 하지 않습니다. "AI 가 먼저 생각해보고, 내가 최종 확인한다"는 방식입니다.

③ AI 의 자율성은 "제한적"이다

  • 비유: AI 는 완벽한 조수가 아니라 잘못된 정보를 말할 수 있는 유능한 조수입니다.
  • 사실: 전문가들은 AI 가 **환각 (Hallucination, 없는 사실을 있는 것처럼 말함)**을 할까 봐 매우 두려워합니다. 보안 세계에서는 "틀린 정보"가 치명적이기 때문입니다. 그래서 AI 가 "이건 해킹이야!"라고 해도, 인간이 다시 한 번 확인하지 않고는 절대 믿지 않습니다.

3. 전문가들의 감정: "좋지만, 아직 믿을 수는 없다"

전문가들의 감정은 기대불안이 섞여 있습니다.

  • 좋아하는 점 (기대):

    • 속도: AI 가 로그를 분석하는 속도는 인간보다 훨씬 빠릅니다.
    • 이해: 복잡한 기술 용어를 "5 살 아이도 이해할 수 있게" 설명해 줍니다.
    • 피로도 감소: 단순 반복 업무를 AI 가 대신해주니, 인간은 더 중요한 일에 집중할 수 있습니다.
  • 싫어하는 점 (불안):

    • 신뢰성 부족: AI 가 가끔 엉뚱한 소리를 해서, 다시 확인하는 데 시간이 더 걸릴 수도 있습니다.
    • 보안 위험: 회사 기밀 정보를 AI 에게 입력하면, 그 정보가 유출될까 봐 무섭습니다. (예: "우리 회사 비밀번호를 AI 에게 물어보지 마세요!")
    • 비용: AI 를 많이 쓰면 비용이 많이 듭니다. "AI 에게 돈을 쓰는 게, 직원 한 명을 더 뽑는 것보다 비싸다"는 의견도 있습니다.

4. 미래의 우려: "인턴이 해고될까?"

가장 무서운 질문은 **"AI 가 우리 일자리를 빼앗을까?"**입니다.

  • 현실: AI 가 초급 보안 전문가 (L1) 들이 하던 단순한 경보 확인 업무를 대신하게 되면, 초급 전문가가 성장할 기회를 잃게 됩니다.
  • 비유: 요리사가 "요리 연습"을 안 하고, AI 가 요리를 다 해준다면, 나중에 AI 가 고장 났을 때 직접 요리를 할 수 있는 요리사는 더 이상 나오지 않게 됩니다.
  • 결론: 연구진은 "AI 를 단순히 인턴처럼 쓰지 말고, 인간과 AI 가 함께 배우는 파트너로 키워야 한다"고 조언합니다. 초급 전문가들은 AI 가 해낸 일을 검토하고 가르치는 '감독자' 역할을 해야 하는데, 이를 위해선 여전히 인간이 직접 해킹 수사를 경험해 봐야 합니다.

5. 요약: 결론은 무엇인가?

이 논문은 **"AI 는 보안 세계의 강력한 해머 (도구) 이지만, 아직은 인간이 손잡이를 꼭 쥐고 있어야 한다"**고 말합니다.

  1. 사용: AI 는 문서 작성, 코드 생성 등 위험하지 않은 업무에 많이 쓰이고 있습니다.
  2. 신뢰: AI 가 내린 결론은 반드시 인간이 다시 확인해야 합니다. (완전 자동화는 아직 이르다.)
  3. 위험: AI 가 거짓말을 하거나, 기밀 정보를 유출할 수 있다는 불안이 여전히 큽니다.
  4. 미래: AI 가 초급 업무를 대신하면, 인간 전문가를 키우는 과정이 사라질 수 있어 새로운 교육 방식이 필요합니다.

한 줄 요약:

"AI 는 보안 전문가에게 아주 유용한 '비서'가 될 수 있지만, 아직은 '사장님'이 될 수 없습니다. 인간이 항상 감시하고 통제해야만, 이 강력한 도구가 건물을 짓는 데 쓰이지 무너뜨리는 데 쓰이지 않을 것입니다."

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →