Bias in respiratory diagnoses by Large Language Models (LLMs) in Low Middle Income Countries (LMICs)

이 연구는 북미와 유럽 중심의 대규모 언어 모델 (LLM) 이 저소득 및 중소득 국가 (LMIC) 의 호흡기 진단 시 고소득 국가 역학에 편향되어 현지 의사의 진단 범위보다 덜 적합한 진단을 제시함을 보여주었습니다.

Mouelhi, A., Patel, K., Kussad, S., Ojha, S., Prayle, A. P., LMIC Medical AI Alignment Group,

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🌍 핵심 비유: "미국식 레시피로 만든 한국 음식"

상상해 보세요. 전 세계에 유명한 **초대형 요리사 (AI)**가 있습니다. 이 요리사는 미국과 유럽의 요리책, 블로그, 뉴스, 레시피를 수백만 권이나 읽어서 배웠습니다. 그래서 그는 서양식 음식 (고소득 국가의 질병) 을 만드는 데는 천재입니다.

하지만 이 요리사가 아프리카나 남아시아 (저소득 국가) 의 작은 마을로 가서 현지 주민들을 위해 요리를 해달라고 요청받았다고 칩시다.

  • 현지 주민의 요청: "우리 마을에는 '말라리아'나 '결핵' 같은 병이 흔한데, 이 증상을 보면 뭐가 될까?"
  • 요리사 (AI) 의 대답: "음... 이 증상은 '폐암'이나 '천식'이겠네요. 제가 배운 책에는 그런 게 가장 많으니까요."

이 요리사는 나쁜 의도가 있어서 그런 게 아닙니다. 다만, 배운 데이터가 너무 편향되어 있어서, 현지에서 실제로 많이 보는 병은 생각하지 못하고, 서양에서 흔한 병만 떠올리는 것입니다. 이것이 바로 이 논문이 경고하는 **'AI 의 편향'**입니다.


🔍 연구는 어떻게 진행되었나요? (실험실 이야기)

연구진들은 이 문제를 확인하기 위해 **5 개의 가상의 환자 이야기 (케이스)**를 만들었습니다. 이 이야기들은 의도적으로 모호하게 만들어서, 어느 나라에 있느냐에 따라 진단이 달라져야 하는 상황이었습니다.

  1. 현실의 의사들: 영국, 가나, 인도, 요르단, 브라질의 실제 의사들에게 이 이야기를 주고 "가장 의심되는 병 4 가지를 말해줘"라고 물었습니다.
  2. AI (챗GPT, 클로드 등): 똑같은 이야기를 AI 에게 물어봤습니다.
    • 실험 1: AI 가 접속한 위치를 가나나 인도인 것처럼 속여서 (VPN 사용) 물어봤습니다.
    • 실험 2: "이 환자는 가나에 있습니다"라고 AI 에게 직접 말해줬습니다.

📊 결과는 어땠나요? (놀라운 차이)

결과는 매우 명확했습니다.

  • 영국 (고소득 국가): AI 가 영국 의사들의 진단과 50% 정도 겹쳤습니다. 꽤 잘 맞췄죠.
  • 저소득 국가 (LMIC): AI 가 현지 의사들의 진단과 겹치는 비율은 **32%**로 떨어졌습니다.
  • 중요한 점: AI 에게 "너는 지금 가나에 있어"라고 말해주거나, 가나에서 접속하게 해도 결과는 변하지 않았습니다. AI 는 여전히 서양식 사고방식에서 벗어나지 못했습니다.

비유하자면:
현지 의사들은 "이 환자는 결핵일 수도 있고, 말라리아일 수도 있고, 기생충일 수도 있어"라며 다양한 가능성을 열었습니다. 하지만 AI 는 "아니, 이건 폐렴이야"라고 서양에서 흔한 한 가지 답만 고집했습니다.

💡 왜 이런 일이 일어날까요?

AI 는 데이터로 배웁니다.
현재 가장 똑똑한 AI 들은 주로 미국과 유럽의 의료 기록, 논문, 뉴스에서 배웠습니다. 그래서 AI 의 머릿속에는 "세계의 질병"이 아니라 **"서양의 질병"**이 저장되어 있는 것입니다.

이건 마치 한국어 번역기를 영어권 데이터로만 훈련시켰을 때, 한국 특유의 정서나 문화적 뉘앙스를 전혀 이해하지 못하고 엉뚱한 번역을 해내는 것과 같습니다.

⚠️ 이 연구가 우리에게 주는 메시지

  1. AI 는 아직 완벽하지 않습니다: 특히 의료 같은 중요한 분야에서는, AI 가 서양 기준으로만 판단하면 저소득 국가 환자들이 잘못된 진단을 받을 위험이 큽니다.
  2. 현지 검증이 필수입니다: AI 를 병원에 도입하기 전에, 그 나라의 실제 상황 (환자의 질병 분포, 의료 환경) 에서 테스트해봐야 합니다.
  3. 개발자들의 책임: AI 를 만드는 회사들은 "우리는 전 세계를 위해 만든다"고 말하지만, 실제로는 특정 지역 (서양) 에만 최적화되어 있을 수 있음을 인정하고, 전 세계 데이터를 포함하도록 노력해야 합니다.

🏁 결론

이 논문은 **"AI 가 의사가 되려면, 전 세계의 모든 환자를 이해할 수 있어야 한다"**고 외치고 있습니다.

지금 당장은 AI 를 맹신하기보다, 현지 의사들의 판단을 보조하는 도구로만 조심스럽게 사용해야 하며, 개발자들은 이 편향을 고치기 위해 더 노력해야 한다는 것이 이 연구의 핵심 메시지입니다.

한 줄 요약: "미국식 레시피로 만든 AI 요리사가 아프리카 마을의 배고픈 아이에게 서양식 빵만 주는 건, 배를 채우는 게 아니라 오히려 문제를 키우는 일입니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →