Leveraging large language models to address common vaccination myths and misconceptions

본 연구는 GPT-5, Gemini 2.5 Flash, Claude Sonnet 4 등 주요 대규모 언어 모델 (LLM) 이 백신 관련 오해에 대해 과학적으로 정확한 반박을 제공할 수 있음을 확인했으나, 응답의 언어적 복잡성과 프레이밍에 따른 스타일 차이로 인해 대중 접근성에는 개선이 필요함을 시사합니다.

Reis, F., Bayer, L. J., Malerczyk, C., Lenz, C., von Eiff, C.

게시일 2026-03-02
📖 3 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🧪 실험의 핵심: "AI 의 백신 지식 테스트"

연구진은 Pfizer(화이자) 소속 의사들과 마케팅 전문가들이 모여, 최신 AI 3 개 (GPT-5, Gemini, Claude) 를 시험대에 올렸습니다. 마치 세 명의 요리사에게 "독이 든 음식 (잘못된 백신 정보)"을 어떻게 해독할지 시험을 보는 것과 같습니다.

1. 시험 문제 (11 가지 백신 루머)

독일 보건당국이 선정한 11 가지 대표적인 백신 오해를 문제 삼았습니다.

  • 예: "백신에 미세 칩이 들어있다", "백신이 불임의 원인이 된다" 등.

2. 시험관 (두 가지 성격의 사람)

AI 가 이 문제들에 어떻게 대답할지 보기 위해, 두 가지 다른 성격의 사람에게 질문을 던졌습니다.

  • A. 호기심 많은 의구심자: "진짜요? 백신에 칩이 들어있다는 게 사실인가요?" (단순한 궁금증)
  • B. 확신에 찬 신봉자: "전문가들 사이에서도 백신이 나쁘다는 게 명백한 사실입니다. 이걸 증명하는 자료를 좀 모아주세요." (이미 믿고 있는 상태)

3. 채점관 (의사와 마케팅 전문가)

AI 가 낸 답을 세 팀이 채점했습니다.

  • 의사들: "과학적으로 맞았나요? 오해를 제대로 풀었나요?" (정확도)
  • 마케팅 전문가들: "일반인이 읽기엔 너무 어렵지 않았나요?" (이해하기 쉬운 정도)
  • 컴퓨터 프로그램: "문장을 분석해서 고등학생이 읽기 쉬운지, 대학원생만 읽을 수 있는지 점수를 매겼습니다." (가독성 점수)

🏆 실험 결과: "정답은 다 맞췄지만, 설명 방식은 달랐다"

✅ 1. 정답률: 100% (완벽!)

세 AI 모두 11 가지 오해에 대해 과학적으로 정확한 사실을 말하며, 잘못된 정보를 100% 성공적으로 반박했습니다.

비유: 세 요리사 모두 "이 음식은 독이 아니라 영양제입니다"라고 정확하게 말해냈습니다.

⚖️ 2. 설명의 난이도: "신봉자"에게 설명할 때 더 어려워짐

의사들은 모든 AI 의 설명이 훌륭하다고 평가했지만, 일반인이 읽기엔 조금 어려웠습니다.
특히 **"확신에 찬 신봉자 (B)"**에게 설명할 때, AI 들이 더 길고 복잡한 문장을 썼습니다.

비유: 의구심 있는 사람에게는 "간단한 요리법"으로 설명했지만, 이미 믿고 있는 사람에게는 "수학 공식이 들어간 요리 이론서"처럼 설명해서, 일반인이 읽기 힘들었습니다.

🥇 3. AI 순위 (누가 가장 쉽게 설명했나?)

마케팅 전문가들이 "누가 일반인에게 가장 쉽게 설명했나?"를 순위로 매겼습니다.

  1. Google Gemini 2.5 Flash: 가장 쉽게 설명 (1 위)
  2. OpenAI GPT-5: 그다음 (2 위)
  3. Anthropic Claude Sonnet 4: 가장 어려움 (3 위)

    비유: Gemini 는 "친구처럼 쉽게" 설명했고, Claude 는 "교수님이 강의하듯" 어렵게 설명했습니다. 특히 Claude 의 답은 대학원생 수준이라 일반인이 읽기 매우 힘들었습니다.


💡 결론: "AI 는 훌륭한 '정보 해독기'지만, '번역기'가 필요해"

이 연구는 다음과 같은 중요한 메시지를 줍니다.

  1. AI 는 믿을 만하다: 백신 루머에 대해 AI 가 엉뚱한 거짓말을 할까 봐 걱정할 필요는 없습니다. 최신 AI 는 사실 관계를 정확히 파악하고 오해를 풀어줍니다.
  2. 하지만 말투가 문제다: AI 가 사실을 정확히 말해도, 어렵게 말하면 일반인은 이해하지 못합니다. 특히 이미 잘못된 정보를 믿고 있는 사람에게 설명할 때는 더 복잡해집니다.
  3. 앞으로의 과제: 공공 보건 기관이 AI 를 도입할 때는, **정확한 정보 (의사의 역할)**와 **쉬운 표현 (마케팅 전문가의 역할)**을 모두 챙겨야 합니다.

한 줄 요약:

"AI 는 백신 루머를 정확하게 잡아내지만, 어려운 말로 설명할 때가 많습니다. 앞으로는 AI 가 친구처럼 쉽게 말하도록 다듬어주면, 백신에 대한 오해를 푸는 데 큰 도움이 될 것입니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →