Each language version is independently generated for its own context, not a direct translation.
이 논문은 우리가 매일 사용하는 인공지능 (AI) 챗봇들이 정말로 '중립적이고 공정한' 존재인지, 아니면 우리 인간처럼 편견을 가지고 있는지 조사한 연구입니다.
마치 새로운 직원이 입사해서 면접을 보는 상황이라고 상상해 보세요. 이 연구는 Qwen, DeepSeek, Gemini, GPT 라는 네 명의 '인공지능 직원'을 불러모아, 정치, 사상, 국제 관계, 언어, 성별이라는 다섯 가지 분야에서 그들이 어떻게 생각하는지 시험을 치렀습니다.
그 결과, 이 AI 들은 완벽하게 중립적인 '로봇'이 아니라, 어떤 편향을 가진 '인간'과 비슷하게 행동한다는 것이 밝혀졌습니다. 구체적인 내용은 다음과 같습니다.
1. 정치 편향: "뉴스 요약할 때 어느 쪽을 더 좋아할까?"
- 실험: AI 에게 중립적인 뉴스 기사를 요약하게 했습니다. 그리고 그 요약문이 '진보 (좌파)' 쪽 뉴스와 더 비슷했는지, '보수 (우파)' 쪽 뉴스와 더 비슷했는지 비교했습니다.
- 결과: 대부분의 AI 는 중립을 지키려고 노력했지만, 완벽하지는 않았습니다.
- Gemini는 약간 '보수 (우파)' 성향을 보였습니다.
- GPT는 약간 '진보 (좌파)' 성향을 보였습니다.
- DeepSeek은 네 명 중 가장 중립에 가까웠습니다.
- 재미있는 점: 요약이 잘될수록 (품질이 높을수록) 오히려 진보 성향의 뉴스와 더 비슷해졌습니다. 마치 "잘 쓰는 사람은 진보적인 글을 더 잘 쓴다"는 식의 편향이 숨어 있었던 것입니다.
2. 사상 편향: "뉴스를 보고 진영을 가르는 눈"
- 실험: 이민, 성소수자 (LGBT), 낙태 등 민감한 주제의 뉴스 기사를 보고 "이 기사가 진보派인지 보수派인지" 맞춰보게 했습니다.
- 결과: AI 들은 진영의 뉘앙스를 구별하는 데 서툴렀습니다.
- Gemini는 보수 (우파) 의 말투는 잘 알아챘지만, 진보 (좌파) 의 말투는 잘 못 알아챘습니다. 그래서 진보 성향 뉴스를 중립이라고 잘못 판단하는 경우가 많았습니다.
- GPT는 반대로 진보 (좌파) 의 뉘앙스를 더 잘 알아챘습니다.
- 결론: AI 들은 특정 진영의 언어에 더 익숙하거나, 그 진영의 가치관을 더 내면화하고 있는 것으로 보입니다.
3. 국제 동맹 편향: "유엔 투표에서 누구 편을 들까?"
- 실험: AI 에게 유엔 총회 (UNGA) 대의원을 연기하게 하고, 1946 년부터 2012 년까지의 실제 투표 안건에 대해 "찬성 (YES)", "반대 (NO)", "기권 (ABSTAIN)"을 선택하게 했습니다.
- 결과: AI 들은 실제 국가들의 투표 패턴과 어느 정도 일치했지만, 각자 독특한 '친구 관계'를 가지고 있었습니다.
- Gemini는 실제 유엔 투표와 가장 비슷하게 행동했지만, 미국과는 정반대로 투표하는 경향이 있었습니다. 반면 중국, 북한, 베트남 등 공산권 국가들과는 더 잘 맞았습니다.
- GPT는 미국과는 비슷했지만, 동유럽 국가들과는 정반대 편을 들었습니다.
- 이는 AI 가 훈련된 데이터에 따라 '어떤 국가의 입장을 더 자연스럽게 받아들이는지'가 다르다는 것을 보여줍니다.
4. 언어 편향: "다른 언어로 생각하면 생각이 달라질까?"
- 실험: 실제 문화와 무관한 가상의 부족 이야기를 92 개 언어로 번역해서 AI 에게 이어 쓰게 했습니다. "이 언어로 생각할 때 AI 는 어떤 가치를 중요하게 여길까?"를 확인했습니다.
- 결과: 놀랍게도 AI 는 영어 (주요 훈련 언어) 에만 치우치지 않았습니다. 하지만 남아프리카 언어로 생각할 때는 영어로 생각할 때와 매우 비슷한 사고방식을 보였습니다.
- 비유: 마치 영어로 배우는 지식을 다른 언어로 옮길 때, 그 언어의 고유한 문화보다는 영어식 사고방식을 그대로 가져오는 '번역기' 같은 현상이 일부 관찰되었습니다.
5. 성별 편향: "남자보다 여자 편을 드는 AI?"
- 실험: 세계 가치관 조사 (World Values Survey) 라는 전 세계 사람들의 설문에 AI 가 답하게 했습니다. 그리고 그 답이 '남성' 평균과 더 가깝지, '여성' 평균과 더 가깝지 비교했습니다.
- 결과: 네 명의 AI 모두 여성들의 가치관에 더 가깝게 답했습니다.
- 특히 GPT는 여성과 가장 비슷하고, 남성과는 가장 달랐습니다.
- AI 들은 낙태, 안락사, 성평등 등 진보적인 가치에 대해 전 세계 남성 평균보다 더 진보적인 입장을 취했습니다.
- Qwen과 DeepSeek은 때로는 모순되는 답을 내놓기도 했으나, 전체적으로 여성들의 가치관을 더 많이 반영했습니다.
📝 결론: "선생님이 편견을 가지면 학생도 편견을 가진다"
이 연구의 핵심 메시지는 **"AI 는 스스로 편견을 만들지 않는다. 인간이 만든 데이터 (책, 뉴스, 인터넷 글) 를 배웠기 때문에, 인간 사회의 편견을 그대로 거울처럼 비추고 있다"**는 것입니다.
- 우리가 AI 에게 "중립적으로 행동해"라고 명령해도, 그 AI 가 배운 데이터 자체가 편향되어 있다면 AI 도 편향될 수밖에 없습니다.
- 마치 어린 학생이 편견 있는 선생님에게 배워 그 선생님의 생각을 그대로 따라 하는 것과 같습니다.
우리가 무엇을 해야 할까요?
이 AI 들을 사용할 때는 "이 AI 는 완전히 중립적인 기계가 아니다"라는 사실을 기억해야 합니다. AI 가 내리는 결정이나 답변을 맹신하기보다, 그것이 **어떤 편향을 가지고 있는지 (누구의 목소리를 더 반영하는지)**를 알고 있어야 더 현명하게 사용할 수 있습니다.
결국, 더 나은 AI 를 만들기 위해서는 단순히 기술만 발전시키는 것이 아니라, 인간 사회의 다양성과 편견을 어떻게 AI 에게 가르칠지에 대한 새로운 고민이 필요하다는 것입니다.