Are Language Models Borrowing-Blind? A Multilingual Evaluation of Loanword Identification across 10 Languages

이 논문은 10 개 언어를 대상으로 한 평가를 통해 사전 훈련된 언어 모델이 명시적 지시와 맥락 정보에도 불구하고 차용어와 고유어를 구분하는 데 실패하며, 이는 소수 언어의 언어 보존 및 NLP 도구 개발에 중요한 시사점을 제공한다는 것을 보여줍니다.

Mérilin Sousa Silva, Sina Ahmadi

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍽️ 비유: "외국식 레스토랑의 메뉴판"

생각해 보세요. 한국 식당 메뉴판에 **'스파게티', '카레', '버터'**가 적혀 있다고 칩시다.

  • 스파게티는 원래 이탈리아에서 왔지만, 지금은 한국인 누구나 "우리 음식"처럼 생각합니다. (완전한 차용어)
  • 버터도 마찬가지입니다.
  • 하지만 만약 메뉴판에 갑자기 **"Hello, how are you?"**라고 영어로 적혀 있다면? 이건 한국 음식이 아니라, 식당 주인이 영어를 섞어 쓴 **코드 스위칭 (Code-switching)**일 가능성이 높습니다.

이 논문은 **AI(언어 모델)**에게 이 메뉴판을 보여주고, "어떤 게 원래 한국 음식이고, 어떤 게 외국에서 빌려온 음식인지, 혹은 그냥 영어를 섞어 쓴 것인지 구별해 봐"라고 시켰습니다.

🔍 실험 결과: AI 는 "차용어 맹인 (Borrowing-Blind)"입니다!

연구진은 10 개 언어 (중국어, 프랑스어, 독일어, 한국어 등) 로 실험을 했습니다. 결과는 놀랍게도 AI 는 이 구별을 거의 못 했습니다.

  1. 직접 물어봐도 못 해요: "이 단어는 외국에서 왔니?"라고 AI 에게 직접 물어도, AI 는 "아니요"라고 하거나 엉뚱한 답을 합니다.
  2. 예시를 보여줘도 못 해요: 몇 가지 예시를 보여주고 (Few-shot) 다시 시켜도 결과는 비슷했습니다.
  3. 학습을 시켜도 완벽하지 않아요: AI 를 특별히 훈련 (Fine-tuning) 시켰더니 성능은 조금 나아졌지만, 여전히 실수가 많았습니다.

🕵️‍♂️ AI 가 왜 헷갈려 할까요? (세 가지 주요 실수)

연구진은 AI 가 왜 실패하는지 세 가지 이유를 찾아냈습니다.

1. "외국인 옷"을 입은 친척을 외국인이라고 함 (코드 스위칭 오인)

  • 상황: 문장 중간에 갑자기 영어 단어가 튀어나온 경우 (예: "오늘 진짜 Really 좋았어").
  • AI 의 실수: AI 는 "이건 외국에서 빌려온 단어 (차용어) 다!"라고 딱 잘라 말합니다.
  • 현실: 사실 이건 그냥 대화 중에 영어를 섞어 쓴 것 (코드 스위칭) 일 뿐, 한국말에 완전히 녹아든 단어는 아닙니다. AI 는 문맥을 이해하지 못하고, 단순히 "영단어가 나왔으니 차용어겠지"라고 생각합니다.

2. "이름표"를 보고 외국어를 판단함 (고유명사 오인)

  • 상황: 'NASA', '파리', 'PISA' 같은 고유명사나 전문 용어가 나올 때.
  • AI 의 실수: "이건 외국에서 온 거야!"라고 잘못 분류합니다.
  • 현실: '파리'는 프랑스 도시 이름이지만, 한국말 문장에서도 자연스럽게 쓰이는 고유명사일 뿐입니다. AI 는 **단어의 모양 (철자)**만 보고 "이건 외국어 같아"라고 판단하는 경향이 있습니다.

3. "과학 용어"를 너무 쉽게 의심함 (그리스/라틴어 오인)

  • 상황: '철학 (Philosophy)', '비료 (Nitrates)'처럼 그리스어나 라틴어에서 유래한 단어.
  • AI 의 실수: "이건 원래 외국에서 온 거니까 차용어야!"라고 생각합니다.
  • 현실: 이 단어들은 수백 년 전부터 우리 언어에 완전히 녹아들어, 이제 우리말처럼 쓰입니다. 하지만 AI 는 **어원 (역사)**만 보고 "아직도 외국어야"라고 판단합니다.

💡 이 연구가 왜 중요할까요?

이 연구는 **"AI 가 언어를 얼마나 잘 이해하는지"**에 대한 중요한 교훈을 줍니다.

  • 약소 언어의 위기: 만약 AI 가 소수 언어 (주변 언어) 를 다룰 때, 그 언어에 섞인 외국어 (차용어) 를 제대로 못 구별한다면, 그 언어의 순수한 어휘를 지키는 데 실패할 수 있습니다.
  • AI 의 편향: AI 는 마치 "외국어 (차용어) 를 더 좋아하고, 원래 말 (토착어) 을 무시하는" 편향을 가지고 있습니다. 이는 AI 가 학습한 데이터가 주로 영어 등 강세 언어에 치우쳐 있기 때문입니다.

🎁 결론: AI 는 아직 "언어 순수주의자"가 아닙니다

이 논문은 AI 가 **"외국에서 온 단어"**와 **"우리 언어에 완전히 녹아든 단어"**를 구별하는 데는 아직 매우 서툴다는 것을 보여줍니다.

AI 는 단어의 **모양 (철자)**이나 역사적 유래만 보고 판단할 뿐, **사람들이 실제로 어떻게 그 단어를 쓰는지 (사회적 맥락)**를 깊이 이해하지 못합니다.

한 줄 요약:

"AI 는 외국에서 온 손님과 우리 집 친척을 구별하지 못해, 모두 '외국인'이라고 오해하거나, 반대로 진짜 외국인을 '우리 집 사람'으로 착각하는 언어 맹인 상태입니다. 앞으로 더 똑똑해지려면 단어의 '모양'보다 '사용되는 맥락'을 배워야 합니다."