Each language version is independently generated for its own context, not a direct translation.
이 논문은 **"성별 중립 언어인 바스크어 (Basque) 를 번역할 때, 인공지능 (AI) 이 어떻게 성별 편견을 드러내는지"**를 연구한 내용입니다.
쉽게 비유하자면, **"성별이 없는 언어를 성별이 있는 언어로 번역하는 AI 가, 마치 '남자'가 default(기본값) 인 세상에서 자란 것처럼 행동한다"**는 사실을 밝혀낸 이야기입니다.
주요 내용을 일상적인 비유로 설명해 드릴게요.
1. 연구의 배경: 왜 바스크어인가?
- 비유: imagine 바스크어는 '성별이 없는 투명인간' 같은 언어입니다. '의사', '간호사' 같은 직업을 말할 때 '남자 의사', '여자 의사'로 구분하지 않고 그냥 '의사'라고만 합니다. 반면, 스페인어나 프랑스어는 **'성별이 뚜렷한 안경'**을 끼고 있습니다. '의사'를 말할 때도 남자인지 여자인지 반드시 표시해야 합니다.
- 문제점: AI 는 주로 영어나 스페인어 같은 '성별이 있는 언어'로 학습했습니다. 그래서 성별이 없는 바스크어를 성별이 있는 언어로 번역할 때, AI 는 **"아마도 남자가 아닐까?"**라고 추측하며 번역을 해버립니다. 이는 실제 사회의 성별 비율과 맞지 않을 수 있습니다.
2. 연구의 도구: 두 가지 새로운 '시험지'
연구팀은 AI 의 편향을 측정하기 위해 두 가지 새로운 시험지를 만들었습니다.
① WinoMTeus (직업 편향 테스트)
- 상황: 바스크어로 "사고를 당한 의사가 간호사에게 전화를 걸었다"라고 합니다. (여기서 의사나 간호사의 성별은 모릅니다.)
- AI 의 번역: AI 가 이를 스페인어로 번역하면 어떻게 될까요?
- 편향된 AI: "남자 의사 (El médico) 가 여자 간호사 (la enfermera) 에게 전화를 걸었다"라고 번역합니다.
- 현실: 실제로 바스크 지역에서는 간호사 96% 가 여성입니다.
- 결과: AI 는 실제 통계와 상관없이, '의사'는 남자로, '간호사'는 여자로 고정관념을 가지고 번역했습니다. 특히 '집안일'이나 '간호' 같은 직종은 여성이 많음에도 불구하고 AI 는 여전히 '남자'로 번역하는 경향이 강했습니다.
② FLORES+Gender (번역 품질 테스트)
- 상황: 스페인어나 영어로 된 문장을 바스크어로 번역할 때, 문장의 주체가 '남자'일 때와 '여자'일 때 번역의 **품질 (정확도)**이 달라지는지 확인합니다.
- 비유: AI 가 남자에 대한 이야기를 할 때는 더 잘하고, 여자에 대한 이야기는 조금 더 어색하게 번역하는지 보는 것입니다.
- 결과: 스페인어 (성별이 뚜렷한 언어) 를 바스크어로 번역할 때, 남자 주체가 포함된 문장이 여자 주체보다 약간 더 정확하게 번역되는 경향이 있었습니다. 즉, AI 가 남자 이야기를 더 '익숙하게' 다룬다는 뜻입니다.
3. 주요 발견: AI 는 여전히 '남자 중심'입니다
- 남자 표준 (Masculine Default): AI 는 성별을 알 수 없는 경우, 무조건 '남자'로 가정하고 번역합니다. 마치 "모든 사람은 기본적으로 남자다"라고 생각하는 것과 같습니다.
- 실제 통계와의 괴리: 실제 바스크 사회에서 여성이 많은 직종 (예: 집안일, 간호, 미용 등) 을 번역할 때도 AI 는 여전히 '남자'로 번역하는 경우가 많았습니다.
- 모델의 차이: 구글 번역기나 최신 대형 AI 모델들도 이 편향을 완전히 해결하지 못했습니다. 다만, 바스크어에 특화되어 학습된 모델 (Latxa 등) 이 일반 모델보다는 조금 더 현실적인 통계를 반영했습니다.
4. 결론 및 시사점
- 핵심 메시지: AI 는 단순히 언어를 번역하는 기계가 아니라, 학습 데이터에 담긴 사회적 편견 (성차별) 을 그대로 재생산하는 거울입니다.
- 해결책: 우리는 AI 를 평가할 때 "번역이 정확한가?"만 보면 안 됩니다. **"여기서 '남자'로 번역한 게 진짜 현실과 맞는가?"**를 함께 확인해야 합니다.
- 미래: 이 연구는 성별이 없는 언어를 가진 다른 나라들 (터키어, 핀란드어 등) 에도 적용될 수 있는 기준을 마련했습니다. 앞으로 AI 가 더 공정하게 작동하려면, 언어의 특징과 그 나라의 문화적 맥락 (실제 성비 등) 을 모두 고려해야 합니다.
한 줄 요약:
"성별이 없는 언어를 성별이 있는 언어로 번역하는 AI 는, **'남자가 기본'**이라는 편견을 가지고 있어서, 실제로는 여성이 많은 직업을 '남자'로 잘못 번역하거나, 여자 주인공의 이야기를 조금 더 어색하게 번역한다는 사실을 발견했습니다."