Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews

이 논문은 ICLR 2024 등 주요 AI 컨퍼런스의 동료 검토 과정을 분석한 사례 연구를 통해, 제출된 리뷰 텍스트의 6.5%~16.9% 가 ChatGPT 와 같은 대규모 언어 모델에 의해 실질적으로 수정되거나 생성되었을 것으로 추정되며, 이는 특히 낮은 신뢰도를 가진 리뷰나 마감 임박 시에 더 두드러진다는 사실을 밝히고 있습니다.

Weixin Liang, Zachary Izzo, Yaohui Zhang, Haley Lepp, Hancheng Cao, Xuandong Zhao, Lingjiao Chen, Haotian Ye, Sheng Liu, Zhi Huang, Daniel A. McFarland, James Y. Zou

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"AI 가 쓴 글이 얼마나 많아졌는지, 그리고 그것이 학계 (특히 인공지능 학회) 에 어떤 영향을 미쳤는지"**를 대규모로 조사한 연구입니다.

쉽게 말해, **"AI 가 쓴 리뷰를 하나하나 찾아내는 게 아니라, '전체 리뷰 중 AI 가 섞인 비율'을 통계적으로 추정하는 새로운 방법"**을 개발하고, 이를 실제로 적용해본 결과에 대한 보고서입니다.

핵심 내용을 일상적인 비유와 함께 설명해 드릴게요.


1. 문제 상황: "AI 가 쓴 글"을 찾아내는 건 왜 어려울까?

과거에는 AI 가 쓴 글을 찾아내려면 "이 문장은 AI 가 썼다/안 썼다"라고 개별 문서 하나하나를 검사해야 했습니다. 하지만 요즘의 AI(챗GPT 등) 는 인간이 쓴 글과 너무 비슷해서, 전문가조차 구별하기 어렵습니다. 마치 가짜 지폐를 하나하나 손으로 만져서 구별하려다 보니, 너무 많아서 다 구별해 내기 힘들어진 상황과 같습니다.

2. 연구자의 해결책: "전체적인 맛"을 보는 방법

이 연구팀은 "개별 문장을 하나하나 검사하는 대신, 전체 리뷰 모음 (코퍼스) 의 '맛'을 분석하자"고 생각했습니다.

  • 비유: 한 그릇의 국에서 "이 숟가락에 들어있는 고기 한 조각이 진짜 소고기인지 가짜인지"를 따지는 게 아니라, **"전체 국물에서 소고기의 향이 얼마나 강하게 느껴지는지"**로 소고기가 섞인 비율을 추정하는 것과 같습니다.
  • 방법: 연구팀은 AI 가 쓴 글과 인간이 쓴 글을 비교해, AI 가 주로 쓰는 **'특정 단어 (형용사)'**들의 사용 빈도를 분석했습니다.
    • 예: AI 는 "commendable(칭찬할 만한)", "meticulous(꼼꼼한)", "intricate(정교한)" 같은 단어를 인간보다 훨씬 자주, 그리고 특이하게 사용합니다.
    • 마치 요리사가 "이 요리에 후추를 너무 많이 넣었네?"라고 알 수 있는 것처럼, 연구팀은 "이 리뷰들에 AI 특유의 '후추 (단어)'가 너무 많이 섞여 있네?"라고 파악한 것입니다.

3. 주요 발견: AI 가 섞인 비율은?

이 방법을 적용해 2023~2024 년에 열린 주요 AI 학회 (ICLR, NeurIPS 등) 의 리뷰를 분석한 결과 놀라운 사실이 드러났습니다.

  • 결과: 제출된 리뷰 중 **약 6.5% ~ 16.9%**가 AI 가 크게 수정하거나 작성한 것으로 추정됩니다.
    • 단순히 맞춤법만 고친 게 아니라, 내용을 AI 가 대폭 보충하거나 다시 쓴 경우입니다.
    • 특히 마감일 (Deadline) 이 임박했을 때나, 리뷰어가 자신감이 부족할 때 AI 사용 비율이 더 높았습니다. (마치 시험 직전에 친구에게 답을 베껴쓰는 심리와 비슷합니다.)
  • 대조군: 반면, 자연과학 분야 (Nature 저널) 의 리뷰에서는 이런 현상이 거의 발견되지 않았습니다. 이는 AI 기술에 가장 민감한 분야 (AI 학회) 에서 먼저 AI 사용이 확산되고 있음을 보여줍니다.

4. 부작용: "동질화 (Homogenization)"의 위험

가장 중요한 발견은 AI 가 쓴 리뷰들이 모두 비슷해지고 있다는 점입니다.

  • 비유: 만약 100 명의 요리사가 모두 같은 레시피와 같은 재료를 쓰면, 100 가지의 요리가 나오지만 맛이 모두 비슷해집니다.
  • 현실: AI 가 쓴 리뷰들은 "이 연구는 훌륭합니다", "추가 실험이 필요합니다"처럼 정해진 패턴과 공통된 표현을 반복합니다.
  • 문제점: 학회 리뷰의 본래 목적은 "다양한 전문가의 다양한 시각"을 통해 논문을 다듬는 것입니다. 하지만 AI 가 쓴 리뷰가 많아지면, 다양한 의견이 사라지고 모든 리뷰가 비슷해져서 (동질화), 논문의 질이 떨어질 수 있습니다. 마치 모든 사람이 같은 생각을 가진 것처럼 보이는 '단색화' 현상입니다.

5. 결론: 우리는 무엇을 해야 할까?

이 연구는 AI 사용 자체를 나쁘다고 비난하는 것이 아니라, **"AI 가 얼마나 많이 쓰이고 있는지, 그리고 그것이 정보 생태계에 어떤 변화를 주는지"**를 객관적으로 보여주는 나침반 역할을 합니다.

  • 핵심 메시지: 우리는 AI 가 쓴 글을 하나하나 찾아내서 처벌하려 하기보다, 전체적인 흐름을 감시하고, AI 사용에 대한 가이드라인을 마련해야 합니다.
  • 미래: 앞으로는 AI 를 어떻게 활용하든, 진짜 인간 전문가의 목소리 (다양한 의견) 가 사라지지 않도록 주의 깊게 지켜봐야 합니다.

한 줄 요약:

"하나하나의 가짜를 잡으려다 지친 대신, 전체 국물에서 AI 의 '향'을 맡아 비율을 재보니, AI 리뷰가 생각보다 훨씬 많이 섞여 있었고, 특히 마감 직전에 심하게 쓰이며 모든 리뷰가 비슷해지고 있었다는 충격적인 사실!"