Do Deployment Constraints Make LLMs Hallucinate Citations? An Empirical Study across Four Models and Five Prompting Regimes

본 논문은 4 개의 대규모 언어 모델과 5 가지 프롬프트 제약을 대상으로 한 실증 연구를 통해, 배포 제약 조건이 적용되더라도 모델이 생성한 인용문 중 실제 존재하는 비율이 47.5% 를 초과하지 않으며 많은 부분이 허위임을 확인하고, 이를 바탕으로 학술 문헌 검토나 소프트웨어 공학 파이프라인에 LLM 출력을 활용하기 전에 사후 인용 검증이 필수적임을 주장합니다.

Chen Zhao, Yuan Tang, Yitian Qian

게시일 Tue, 10 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"LLM(거대 언어 모델) 이 학문적인 글을 쓸 때, 진짜 논문인지 가짜인지 구별할 수 있는 '인용문'을 얼마나 잘 만들어내는가?"**를 실험한 연구입니다.

쉽게 말해, **"AI 가 쓴 글에 나오는 참고문헌 목록이 진짜 도서관에 있는 책인지, AI 가 머릿속에서 지어낸 공상인지"**를 확인한 보고서입니다.

이 내용을 일상적인 비유로 설명해 드릴게요.


🍔 비유: "AI 는 완벽한 메뉴판을 만들지만, 음식은 없는 식당"

이 연구를 한 가지 비유로 풀어보면 다음과 같습니다.

  • AI (LLM): 요리를 아주 맛있게 해주는 '슈퍼 셰프'입니다.
  • 인용문 (Citation): 메뉴판에 적힌 '재료 출처'입니다. (예: "이 소스는 2023 년 프랑스에서 재배된 토마토로 만들었습니다.")
  • 실험 조건 (Deployment Constraints): 셰프에게 내리는 특수 주문입니다.
    • "올해 나온 재료만 써줘." (시간 제한)
    • "이 요리에 대한 모든 레시피를 다 포함해서 써줘." (광범위한 요구)
    • "네가 공부한 책 내용을 말하면 안 돼." (비밀 유지)

연구진은 이 '슈퍼 셰프'들에게 다양한 주문을 내리며, 그들이 적어낸 재료 출처가 진짜인지 가짜인지를 도서관 (Crossref, Semantic Scholar) 에 가서 하나하나 확인했습니다.


🔍 주요 발견 4 가지

1. "모양은 완벽하지만, 내용은 빈 껍데기" (형식 준수 vs 사실성)

셰프들은 주문을 아주 잘 따릅니다. "2023 년 이후 재료만 써줘"라고 하면, 2023 년 이후 날짜가 적힌 메뉴판을 완벽하게 만들어냅니다.

  • 하지만! 그 재료는 도서관에 실제로 존재하지 않습니다.
  • 결과: AI 는 문법이나 날짜 형식을 완벽하게 지키지만, 그 안에 적힌 '진짜 책'의 수는 50% 도 채 되지 않았습니다. (최고 성능 모델도 47.5% 만 성공)

2. "시간을 제한하면 AI 가 더 당황한다" (시간 제약의 영향)

"최근 5 년 이내의 논문만 인용해줘"라고 하면, AI 는 그 시간 안에 있는 진짜 논문을 찾기 어려워집니다.

  • 결과: AI 는 시간 제한을 지키기 위해 가짜 논문을 지어내거나, 아예 찾을 수 없는 논문을 만들어냅니다. 형식은 완벽하지만, 내용은 99% 가 가짜가 되어버립니다.

3. "비싼 AI vs 무료 AI" (상용 모델 vs 오픈소스 모델)

  • 비싼 AI (Claude, GPT-4): "진짜 논문"을 찾아내는 능력이 무료 AI 보다 훨씬 좋습니다. 하지만 여전히 50% 이상은 틀립니다.
  • 무료 AI (LLaMA, Qwen): 진짜 논문을 찾아내는 비율이 매우 낮습니다. 특히 "광범위한 주제"를 요구하면, 가짜 논문을 만들어내는 비율이 50% 를 넘어서기도 합니다.
  • 비유: 비싼 AI 는 가짜를 덜 만들지만, 무료 AI 는 거의 가짜만 만들어낸다고 생각하시면 됩니다.

4. "정답도, 오답도 아닌 '알 수 없음'의 함정" (Unresolved)

가장 무서운 점은, AI 가 만든 인용문 중 **36~61%**는 도서관에서 "있냐, 없냐"를 확실히 알 수 없는 상태라는 것입니다.

  • 문제: 이 '알 수 없음' 항목 중 절반 정도는 실제로는 완전한 가짜였습니다.
  • 비유: 메뉴판에 "신비한 소스 (정체불명)"라고 적혀 있는데, 알고 보니 그 소스는 존재하지 않는 것입니다. 하지만 처음 보면 진짜처럼 보입니다.

💡 이 연구가 우리에게 주는 교훈

이 논문은 우리에게 다음과 같은 중요한 메시지를 줍니다.

  1. AI 가 쓴 글의 참고문헌은 '초안'일 뿐입니다.
    AI 가 인용한 책이나 논문이 아무리 그럴듯해 보여도, 반드시 직접 도서관 (데이터베이스) 에서 찾아봐야 합니다. AI 가 "이 책 있어요"라고 해도, 실제로는 없는 경우가 많습니다.

  2. 조건이 까다로울수록 AI 는 더 많이 거짓말합니다.
    "최근 자료만 줘", "모든 분야를 다 줘"라고 요구할수록 AI 는 진짜를 찾기보다 가짜를 만들어낼 확률이 높아집니다.

  3. 형식이 완벽하다고 믿지 마세요.
    날짜, 저자 이름, DOI(고유 번호) 가 다 맞춰져 있어도, 그 책이 실제로 존재하지 않을 수 있습니다.

🎯 결론: "AI 는 훌륭한 조수지만, 검증은 인간이 해야 합니다"

AI 는 학문적인 글을 쓰는 데 아주 유용한 도구입니다. 하지만 AI 가 만들어낸 참고문헌 목록은 '가짜 뉴스'가 섞여 있을 수 있는 위험한 상태입니다.

따라서 소프트웨어 공학이나 학술 연구를 할 때, AI 가 만들어준 글을 그대로 받아쓰지 말고, **"이게 진짜인가?"**를 확인하는 검증 과정을 반드시 거쳐야 한다는 것이 이 연구의 핵심 결론입니다.

한 줄 요약: AI 가 만들어낸 참고문헌은 "모양은 완벽하지만 내용만 없는 가짜 메뉴판"일 수 있으니, 반드시 직접 메뉴판의 진위를 확인하세요!