Perceptions of Artificial Intelligence in the Editorial and Peer Review Process: A Cross-Sectional Survey of Traditional, Complementary, and Integrative Medicine Journal Editors

본 연구는 전통·보완·통합의학 (TCIM) 저널 편집자들이 인공지능의 잠재력을 인정하면서도 윤리적 우려와 제도적 지원 부재로 인해 실제 편집 및 동료 검토 과정에서의 활용은 제한적임을 보여주는 설문 결과를 제시합니다.

Ng, J. Y., Bhavsar, D., Krishnamurthy, M., Dhanvanthry, N., Fry, D., Kim, J. W., King, A., Lai, J., Makwanda, A., Olugbemiro, P., Patel, J., Virani, I., Ying, E., Yong, K., Zaidi, A., Zouhair, J., Lee, M. S., Lee, Y.-S., Nesari, T. M., Ostermann, T., Witt, C. M., Zhong, L., Cramer, H.

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 배경: 새로운 주방 도구 (AI) 가 등장하다

요즘 요리계 (학술 출판계) 에는 '로봇 조리사 (AI)'가 등장했습니다. 이 로봇은 재료를 다지고 (문법 검사), 위생 검사를 하고 (표절 검사), 레시피를 정리하는 일을 아주 빠르게 해낼 수 있다고 합니다.

하지만 이 연구는 **"전통적인 한약재나 자연 요리를 다루는 전문 주방장들 (TCIM 편집자들)"**이 이 로봇을 어떻게 생각하는지 궁금해했습니다. 전통 의학은 문화적 맥락과 복잡한 철학이 섞여 있어, 단순히 기계가 다 해줄 수 없는 부분들이 많기 때문입니다.

🔍 조사 방법: 115 개 주방에 보내진 설문의 편지

연구팀은 115 개 학술지의 편집장들과 편집진 5,100 명에게 "로봇 조리사 사용 경험과 생각"에 대한 설문을 보냈습니다. 그중 217 명이 답장을 보냈습니다.

📊 주요 발견: "알기는 하지만, 아직 쓰지 않아"

1. "로봇은 알지만, 직접 쓰진 않아"

  • 상황: 편집자들의 70% 가 "로봇 조리사 (AI) 가 뭔지는 알아요"라고 했습니다. 실제로 개인적으로 챗GPT 같은 걸 써본 사람도 80% 이상이었죠.
  • 현실: 하지만 **자신의 업무 (논문 심사, 편집) 에는 60% 이상이 "한 번도 써본 적 없다"**고 답했습니다.
  • 비유: "요리사들은 로봇이 있다는 건 알지만, 아직 내 손으로 직접 요리를 하거나 로봇에게 요리를 맡기지는 않고 있어요."

2. "어디서 쓸까? 문법 교정은 OK, 감정 소통은 NO"

  • 좋아하는 부분: 편집자들은 로봇이 문법 검사표절/윤리 검사를 하는 건 아주 유용하다고 생각했습니다 (81% 가 찬성). 이는 로봇이 글자를 잘 다듬고 위생 상태를 체크하는 일이라서요.
  • 싫어하는 부분: 하지만 저자나 심사위원과 대화하거나, 논문의 깊이를 평가하는 일은 로봇에게 맡기기 싫어했습니다.
  • 비유: "로봇이 식자재 (문자) 를 잘 다듬어 주는 건 좋지만, 손님의 취향을 읽거나 요리사의 영감을 대체할 수는 없어요. 특히 전통 의학은 문화적 뉘앙스가 중요하니까요."

3. "가장 큰 문제는 '가이드라인'과 '교육' 부재"

  • 현실: 편집자의 65% 가 "우리 주방 (저널) 에는 로봇 사용 규칙이 없다"고 했습니다. 또, "로봇을 어떻게 써야 할지 교육받은 적도 없다"고 했습니다.
  • 필요성: 하지만 82% 는 "앞으로 로봇은 중요할 거야"라고 생각했고, 63% 는 "로봇 사용법을 배우고 싶다"고 했습니다.
  • 비유: "새로운 로봇이 들어왔는데, 사용 설명서도 없고, 어떻게 써야 할지 가르쳐 주는 사람도 없어요. 그래서 다들 당황하고 있어요. 하지만 배우고 싶은 마음은 큰 상태죠."

4. "우려되는 점: 로봇이 망치면 누가 책임질까?"

  • 우려: 편집자들은 로봇이 잘못된 정보를 만들어내거나 (할루시네이션), 편견을 가지고 판단할까 봐 걱정했습니다. 또한, 로봇이 모든 걸 결정하면 인간의 판단이 사라져서 요리 (연구) 의 질이 떨어질까 봐 두려워했습니다.
  • 비유: "로봇이 만든 요리가 맛이 없거나, 식중독을 일으켰을 때 누가 책임질까요? 그리고 로봇이 만든 요리가 정말 우리 전통의 맛을 제대로 살렸을까요?"

💡 결론: "조심스럽게 도입하자"

이 연구의 결론은 다음과 같습니다.

"전통 의학 편집자들은 AI 가 일상적인 업무 (문법, 표절 검사) 를 도와주면 좋다고 생각하지만, 아직은 신뢰할 수 있는 규칙과 교육이 없어서 잘 쓰지 않고 있어요. 앞으로는 AI 를 도입하되, 인간의 판단을 대체하지 않고 '보조 도구'로만 쓰면서, 윤리적 가이드라인과 교육을 먼저 마련해야 합니다."

한 줄 요약:
AI 는 훌륭한 **'도구'**가 될 수 있지만, 전통 의학이라는 **'정성'**이 필요한 분야에서는 아직 **'주인'**이 될 수 없으며, 사용법을 가르쳐 주는 **'가이드'**가 먼저 필요합니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →