Stuck on Suggestions: Automation Bias, the Anchoring Effect, and the Factors That Shape Them in Computational Pathology

이 논문은 계산병리학 분야에서 AI 지원이 진단 정확도를 높이는 동시에 자동화 편향과 앵커링 효과를 유발할 수 있음을 보여주며, 특히 시간적 압박 하에서는 이러한 편향이 심화되고 전문성 및 자기효능감이 낮은 전문가일수록 AI 에 더 의존한다는 실험 결과를 제시합니다.

Emely Rosbach, Jonas Ammeling, Jonathan Ganz, Christof Albert Bertram, Thomas Conrad, Andreas Riener, Marc Aubreville

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 요리사의 새로운 조수: "AI 비서"와 "요리 실수"

상상해 보세요. 당신은 20 년 차 베테랑 **요리사 (전문 병리학자)**입니다. 매일 수많은 요리를 만들며 재료의 양을 눈대중으로 재는 일을 합니다. 그런데 이제 새로운 **로봇 조수 (AI)**가 들어왔습니다. 이 로봇은 재료를 아주 정확하게 재서 "이게 64% 입니다"라고 알려줍니다.

연구진은 이 로봇 조수가 요리사에게 어떤 영향을 미치는지 실험했습니다.

1. 실험 내용: "혼자 요리하기" vs "로봇 조수랑 함께하기"

연구진은 28 명의 전문 요리사 (병리학자) 를 모았습니다.

  • 1 단계: 로봇 없이 혼자서 "이 음식에 고기가 몇 % 들어갔을까?"라고 추정하게 했습니다.
  • 2 단계: 로봇이 "고기가 64% 입니다"라고 알려준 후, 다시 추정하게 했습니다.
  • 조건: 때로는 **시간 제한 (10 초)**을 두어 서두르게 만들기도 했습니다.

2. 발견한 놀라운 사실들

① AI 는总体上 (전반적으로) 도움이 됩니다.
로봇 조수가 있으면 요리사들의 추정이 더 정확해졌습니다. 마치 숙련된 요리사도 계산기를 쓰면 더 정확히 재는 것과 같습니다.

② 하지만 '자동화 편향'이라는 함정이 있습니다.
로봇이 틀린 말을 했을 때, 요리사들이 자신의 눈으로 본 것을 무시하고 로봇의 말을 그대로 믿는 경우가 있었습니다.

  • 비유: 요리사가 "아니, 고기는 30% 정도야"라고 생각했는데, 로봇이 "아니요, 60% 입니다"라고 말하자, 요리사가 "아, 로봇이니까 맞겠지"라고 자신의 판단을 바꾼 것입니다.
  • 결과: 약 **7%**의 경우에서, 요리사는 원래 맞았던 판단을 로봇의 틀린 말 때문에 틀리게 바꾸었습니다. 이를 **'자동화 편향 (Automation Bias)'**이라고 합니다.

③ '닻 효과 (Anchoring Effect)'가 강하게 작용합니다.
로봇이 먼저 말한 숫자 (예: 64%) 는 요리사의 머릿속에 **'닻'**처럼 내려앉아 버렸습니다.

  • 비유: 배가 항구에 정박할 때 닻을 내리면 배가 그 자리에 고정되듯, 로봇이 먼저 말한 숫자가 의사의 판단 기준이 되어버린 것입니다.
  • 결과: 요리사들은 로봇의 말을 완전히 믿지는 않았지만, 자신의 원래 판단보다 로봇의 말을 약 44% 정도 더 반영했습니다. 즉, 로봇의 말에 너무 많은 비중을 둔 것입니다.

④ 시간 압박은 '실수의 심각성'을 키웁니다.
시간이 촉박할 때 (10 초 제한), 요리사들이 로봇의 말을 듣는 횟수는 늘지 않았습니다. 하지만 실수가 더 커졌습니다.

  • 비유: 시간이 없을 때 우리는 뇌가 피곤해져서 "로봇이 다 해줄 거야"라고 생각하며, 로봇이 틀린 말을 해도 더 크게 잘못 판단하게 됩니다. 로봇의 잘못된 말에 더 크게 흔들리는 것입니다.

3. 누가 더 AI 에 의존할까? (개인차)

  • 경험이 많은 요리사 (베테랑): 로봇의 말을 덜 믿고 자신의 판단을 더 신뢰했습니다. (자신감이 있어서요)
  • 자신감이 높은 요리사: 처음에 혼자 할 때 자신감이 있으면 로봇을 덜 믿었습니다.
  • 하지만, AI 와 함께할 때 자신감이 높아지면? 역설적으로 로봇의 말을 더 많이 따랐습니다. "로봇이 도와주니까 내가 더 잘할 수 있겠지"라는 안일한 생각이 들면서 오히려 로봇에 의존하게 된 것입니다.

💡 결론: 우리는 어떻게 해야 할까?

이 연구는 **"AI 는 훌륭한 조수이지만, 맹목적으로 따라가면 위험하다"**는 교훈을 줍니다.

  1. AI 는 100% 믿지 마세요: AI 가 틀릴 수도 있다는 걸 기억해야 합니다.
  2. 시간이 급할 때 더 조심하세요: 바쁠수록 AI 의 말을 무조건 믿기보다, 한 번 더 확인하는 습관이 필요합니다.
  3. 경험과 자신감이 중요합니다: 자신의 전문성을 믿는 것이 AI 에 대한 과도한 의존을 막아줍니다. 하지만 AI 를 쓸 때 "내가 더 잘할 수 있다"는 오만함보다는 "함께 검토하자"는 태도가 중요합니다.

한 줄 요약:

"인공지능은 훌륭한 조수지만, 요리사 (의사) 가 로봇의 말에 너무 쉽게 '닻'을 내리고 따라가면, 오히려 더 큰 실수를 할 수 있습니다. 특히 바쁠 때는 더욱 경계해야 합니다."

이 연구는 앞으로 병원에서 AI 를 도입할 때, 의사들이 AI 를 적절히 신뢰하면서도 비판적으로 검토할 수 있도록 시스템을 설계하는 데 중요한 기준이 될 것입니다.