When AI Fails, What Works? A Data-Driven Taxonomy of Real-World AI Risk Mitigation Strategies

이 논문은 9,705 건의 미디어 보고된 AI 사고 데이터를 분석하여 기존 MIT 위험 완화 분류 체계를 4 가지 새로운 카테고리와 67% 확장된 레이블로 보완한 데이터 기반의 실증적 분류 체계를 제시함으로써, 고위험 환경에서의 AI 시스템 실패를 진단하고 대응하는 체계를 강화합니다.

Evgenija Popchanovska, Ana Gjorgjevikj, Maryan Rizinski, Lubomir Chitkushev, Irena Vodenska, Dimitar Trajanov

게시일 2026-03-05
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 실수를 했을 때, 실제로 어떤 해결책이 효과가 있을까?"**라는 질문에 답하기 위해 쓴 연구입니다.

기존의 연구들은 "AI 가 왜 틀렸는지"만 분석하거나, 이론적으로 "어떻게 고쳐야 할지"만 이야기했습니다. 하지만 이 연구는 **"실제로 세상이 얼마나 큰 혼란을 겪었고, 기업과 정부가 어떻게 대응했는지"**를 9,700 여 개의 뉴스 기사를 분석해 찾아냈습니다.

이 복잡한 내용을 누구나 이해할 수 있도록 비유와 이야기로 설명해 드릴게요.


1. 문제: "완벽한 로봇"은 없다, 하지만 "시스템"이 무너질 수 있다

과거에는 AI 가 실수하면 "그 로봇이 고장 났구나"라고 생각했습니다. 하지만 요즘 AI(특히 거대한 언어 모델) 는 우리 사회의 중요한 곳 (병원, 은행, 법원) 에 깊숙이 들어와 있습니다.

  • 비유: AI 를 **유능하지만 가끔 망각하는 '초고속 배달 기사'**라고 상상해 보세요.
    • 과거에는 기사가 길을 잘못 들면 그 배달만 실패했습니다.
    • 하지만 지금은 이 기사가 전체 물류 시스템, 은행 계좌, 심지어 법원 서류까지 처리합니다.
    • 그래서 기사가 한 번 실수하면 (예: 엉뚱한 약을 배달하거나, 거짓 법률 문서를 작성하면), 그 파장은 개별 실수를 넘어 **시스템 전체가 무너지는 '대재앙'**으로 이어집니다.

이 논문은 바로 이런 **'시스템 전체의 붕괴'**를 막기 위해 실제로 어떤 조치가 취해졌는지 분석했습니다.

2. 방법: "수천 개의 뉴스"를 모아 레시피를 만들다

연구진들은 MIT(미국 매사추세츠 공대) 와 OECD(경제협력개발기구) 같은 기관이 모은 9,705 개의 AI 사고 뉴스를 모두 읽었습니다. 그리고 "이 사고가 났을 때, 사람들은 어떻게 대처했나?"를 찾아냈습니다.

  • 비유: 마치 수천 개의 '화재 사고 보고서'를 모아 '소방 매뉴얼'을 새로 쓰는 것과 같습니다.
    • 기존 매뉴얼은 "불이 나면 물을 뿌려라" (이론) 정도였습니다.
    • 하지만 실제 화재 현장에서는 "불이 난 건물을 아예 폐쇄했다", "소방관에게 법적 처벌을 내렸다", "보험금을 지급했다" 등 훨씬 다양한 대응이 있었습니다.
    • 연구진은 이 실제 현장의 대응법을 정리해서 새로운 '대응 분류표 (Taxonomy)'를 만들었습니다.

3. 결과: 기존 분류표에 없는 '새로운 4 가지 대응법' 발견

기존의 분류표에는 기술적인 해결책 (예: 코드를 고치기) 이나 관리적인 해결책 (예: 감독 강화) 이 주를 이뤘습니다. 하지만 이 연구는 실제 뉴스에서 발견된 4 가지 새로운 대응법을 추가했습니다.

① "고치거나, 아예 막기" (Corrective & Restrictive Actions)

  • 상황: AI 가 엉뚱한 말을 계속 내뱉거나, 위험한 기능을 켜고 있을 때.
  • 대응: "그 기능을 끄거나, 아예 그 서비스를 중단해라!"
  • 비유: 식당에서 요리사가 독이 든 요리를 계속 내놓으면, 그 요리를 메뉴에서 삭제하거나 (기능 제한), 아예 그 식당 문을 닫는 (서비스 중단) 것입니다.

② "법으로 다스리기" (Legal, Regulatory & Enforcement Actions)

  • 상황: AI 가 저작권을 침해하거나, 사람을 속여 큰 피해를 입혔을 때.
  • 대응: "법원에 소송을 걸거나, 정부가 벌금을 매겨라!"
  • 비유: 배달 기사가 고객의 물건을 훔쳤다면, 경찰에 신고하거나 법원에서 형사 처벌을 받는 것입니다. 단순히 "죄송합니다"로 끝나는 게 아닙니다.

③ "돈으로 해결하기" (Financial, Economic & Market Controls)

  • 상황: 피해자가 입은 금전적 손해를 보상하거나, 위험한 AI 를 시장에서 퇴출시킬 때.
  • 대응: "배상금을 주거나, 그 회사의 주식을 시장에서 퇴출시켜라!"
  • 비유: 사고를 낸 기사가 피해자에게 돈을赔偿하고, 더 이상 그 기사가 일할 수 있도록 '시장에서 퇴출'시키는 것입니다.

④ "부인하기" (Avoidance & Denial)

  • 상황: 사고가 났는데, 회사가 책임을 지지 않으려 할 때.
  • 대응: "우리가 잘못한 게 아니다, 법을 지켰다"라고 주장하며 책임을 회피하는 행위.
  • 비유: 요리사가 "요리사가 아니라 손님이 잘못 먹은 거다"라고 책임 전가를 하거나, 아예 사고를 인정하지 않는 것입니다. 연구진은 이것도 하나의 '대응 패턴'으로 기록했습니다.

4. 왜 이 연구가 중요한가?

이 논문은 우리에게 중요한 교훈을 줍니다.

"AI 가 실수했을 때, 단순히 '코드를 고치는 것'만으로는 부족합니다. 법, 돈, 시장 규제, 그리고 때로는 책임을 회피하는 인간의 심리까지 모두 고려해야 합니다."

  • 실제 사례:
    • 어떤 변호사는 AI 가 만든 거짓 판례를 제출했다가 벌금을 물었습니다. (법적 대응)
    • 에어캐나다는 챗봇이 고객에게 잘못된 환불 정책을 말해 소송을 당했고, 결국 챗봇을 아예 끄는 선택을 했습니다. (기술적 중단)
    • 어떤 뉴스사는 AI 가 쓴 기사가 사실과 달라 신뢰를 잃고 망했습니다. (시장적 영향)

5. 결론: "사고 후 수습"이 아니라 "사고 예측"으로

이 연구는 단순히 "무슨 일이 일어났나"를 나열하는 것을 넘어, **"다음에 이런 일이 생기면 어떻게 해야 할지"**에 대한 구체적인 지도를 제시합니다.

  • 미래의 비전: 연구진은 이 분류표를 이용해 **AI 를 감시하는 '경비대 (AI 감시자)'**를 만들 것을 제안합니다.
    • 마치 건물의 소화전처럼, AI 가 실수하기 전에 위험 신호를 감지하고 자동으로 "그 기능을 멈춰라", "법적 조치를 취하라"는 명령을 내리는 시스템을 만드는 것입니다.

한 줄 요약:
이 논문은 "AI 가 실수하면 어떻게 해야 할까?"라는 질문에 대해, 단순한 기술 수정을 넘어 법, 경제, 규제까지 포함한 '실전 대응 매뉴얼'을 9,700 개의 뉴스 기사를 통해 새로 썼다는 이야기입니다.