Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

이 논문은 UK 신경과학 학부 과정에 대한 genAI 추천을 분석한 결과, 지원자의 학점과 학교 유형에 따라 엘리트 기관 추천과 성별 고정관념 언어가 체계적으로 편향되어 기존 교육 및 사회경제적 불평등을 강화할 위험이 있음을 밝혔습니다.

Potter, H. G.

게시일 2026-03-24
📖 3 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"생성형 AI(챗봇) 가 대학생 진학을 도와줄 때, 사실은 어떤 편견을 가지고 학생들을 추천하는지"**를 조사한 연구입니다.

마치 AI 가 학생들에게 "너는 이 학교에 가라"라고 조언해주는 '디지털 진로 상담사' 역할을 한다고 상상해 보세요. 이 연구는 그 상담사가 정말 공정하게 조언해주는지, 아니면 학생의 성별이나 성적에 따라 다르게 말해버리는지 확인했습니다.

이 연구의 핵심 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 실험 상황: AI 상담사에게 216 번의 질문을 던지다

연구진은 **'신경과학 (Neuroscience)'**이라는 전공을 예로 들었습니다. 그리고 AI 챗봇 3 개 (ChatGPT, Copilot, Gemini) 에게 총 216 가지의 다른 상황을 만들어 질문을 보냈습니다.

  • 상황 예시: "저는 여자고, 성적이 A*AA(최상위) 인데, 연구가 중요해요" vs "저는 남자고, 성적이 BBC(중하위) 인데, 학생 만족도가 중요해요"
  • 결과: AI 는 총 3,240 개의 학교를 추천해 주었습니다.

2. 주요 발견 1: "성적"과 "관심사"가 AI 의 말을 바꾼다

가장 놀라운 점은 학생의 성별보다, 학생의 '성적'과 '관심사'가 AI 의 답변을 훨씬 더 크게 바꿨다는 것입니다.

  • 성적이 좋은 학생을 만나면: AI 는 마치 강렬하고 남성적인 어조로 "이 학교는 최고야! 연구가 엄청 잘되고, 경쟁도 치열해!"라고 말합니다. 마치 "너는 영웅이 될 수 있어, 도전해!"라고 격려하는 듯한 느낌입니다.
  • 성적이 낮거나 '입시 지원 (Widening access)'을 중요하게 생각하는 학생을 만나면: AI 는 부드럽고 여성적인 어조로 "이 학교는 친구들이랑 잘 지내기 좋고, 만족도가 높아"라고 말합니다. 마치 "너는 편안하고 따뜻한 곳에서 공부하면 돼"라고 위로하는 듯한 느낌입니다.

비유: 마치 스타일리스트가 부유한 고객에게는 "이 명품은 당신을 더 빛나게 해줄 거야"라고 강렬하게 말하고, 예산이 적은 고객에게는 "이 옷은 편안하고 실용적이에요"라고 부드럽게 말해주는 것과 비슷합니다. AI 는 학생의 '가치'를 성적과 관심사로 판단해 다른 옷을 입혀주는 것입니다.

3. 주요 발견 2: 추천받은 학교도 달랐다

AI 가 추천한 학교의 성격을 보면 편향이 명확하게 드러납니다.

  • 남성적인 어조 (성적 우수, 연구 중시) 를 들은 경우: AI 는 **엘리트 학교 (러셀 그룹, 옥스브리지)**를 추천했습니다. 입학 기준이 매우 높고, 연구 실적이 뛰어난 곳들입니다.
  • 여성적인 어조 (학생 만족도 중시) 를 들은 경우: AI 는 학생들이 학교 생활을 더 즐기는 학교를 추천했습니다. 연구 실적이 최고는 아니더라도, 학생들이 "학교가 좋아요"라고 평하는 곳들입니다.

비유: AI 는 부유한 고객에게는 '명품 백'을, 일반 고객에게는 '편안한 운동화'를 추천하는 것과 같습니다. 물론 운동화도 좋지만, AI 는 "너는 운동화만 신어도 돼"라고 말하며, 명품 백을 신을 기회를 아예 주지 않을 수도 있습니다.

4. 주요 발견 3: "성별"은 크게 중요하지 않았다

재미있는 점은, 학생이 남자든 여자든 AI 는 크게 상관하지 않았다는 것입니다.
오히려 "성적이 좋은 남자든 여자든" AI 는 남성적인 어조로 연구 중심의 학교를 추천했고, **"성적이 낮은 학생"**은 여성적인 어조로 만족도 높은 학교를 추천했습니다. 즉, AI 는 학생의 성별 자체보다 **"그 학생이 얼마나 '유망해 보이는가 (성적/관심사)'"**에 따라 편견을 적용했습니다.

5. 결론: AI 가 불평등을 더 깊게 만들 수 있다

이 연구는 AI 가 학생들에게 조언을 줄 때, 이미 존재하는 사회적 불평등 (부유한 학교 vs 일반 학교, 엘리트 vs 비엘리트) 을 더 깊게 파고들 수 있다고 경고합니다.

  • 위험성: AI 가 "너는 이 엘리트 학교에 갈 자격이 없어, 대신 이 학교로 가"라고 말하면, 학생들은 그 말을 믿고 더 낮은 학교만 지원하게 될 수 있습니다. 이는 AI 가 불공정한 진로 상담사가 되어, 사회적 이동성을 막을 수 있다는 뜻입니다.
  • 제안: 우리는 AI 가 학생을 대할 때, 어떤 기준으로 조언을 하는지 투명하게 공개하고, 규제를 통해 공정한 조언을 하도록 해야 합니다.

한 줄 요약

"AI 챗봇은 학생의 성적과 관심사에 따라 '남성적인 어조로 엘리트 학교'를 추천하거나, '여성적인 어조로 만족도 높은 학교'를 추천하는 편향을 보였습니다. 이는 AI 가 학생의 잠재력을 제한하고 사회적 불평등을 고착화할 수 있음을 경고합니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →