Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

この研究は、英国の神経科学プログラムを対象とした生成 AI の調査を通じて、申請者の成績や学校種、研究志向などの属性が AI の回答における言語の性差や推薦される大学の選好に系統的なバイアスを生じさせ、既存の教育・社会経済的不平等を強化するリスクがあることを明らかにしています。

Potter, H. G.

公開日 2026-03-24
📖 1 分で読めます☕ さくっと読める
⚕️

これは査読を受けていないプレプリントのAI生成解説です。医学的助言ではありません。この内容に基づいて健康上の判断をしないでください。 免責事項の全文を読む

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「将来の大学生が大学を選ぶとき、AI(人工知能)がどんな『偏見』を持っているか」**を調査した面白い研究です。

イギリスの神経科学(脳や神経を学ぶ学科)を例に、3 つの有名な AI チャットボット(ChatGPT、Copilot、Gemini)に「どんな学生が、どんな大学に行くべきか」を尋ねてみました。

その結果、AI は**「成績が良い人」や「研究を重視する人」には、まるで「男っぽい・硬い・エリート向け」のアドバイスをし、逆に「成績が低い人」や「学生満足度を重視する人」には「女っぽい・優しい・入りやすい」アドバイスをしていた**ことがわかりました。

これをわかりやすく、いくつかの比喩を使って説明しましょう。

🍎 1. AI は「魔法の案内人」だが、偏った眼鏡をかけている

想像してください。大学選びの相談に乗ってくれる「魔法の案内人(AI)」がいます。この人は何でも知っていますが、実は**「成績」と「希望」によって、見る世界の色が勝手に変わってしまう**のです。

  • 成績が良く、研究が好きな人が尋ねると、AI は**「硬いスーツを着た、厳格な男の先生」のように振る舞います。「ここは最高峰の研究所だ!競争は激しいが、君ならできる!」と、「男っぽい(男性的)」**言葉で、難易度の高い名門大学を勧めてきます。
  • 成績が普通で、学生生活の楽しさを重視する人が尋ねると、AI は**「優しいお母さん」のように振る舞います。「ここは仲間が温かく、勉強も楽しいよ」と、「女っぽい(女性的)」**言葉で、入りやすく満足度が高い大学を勧めてきます。

驚くべき点は、この「男っぽい・女っぽい」なアドバイスは、質問した本人の性別(男か女か)とは全く関係ないということです。成績や希望だけで、AI が勝手に「この人には男言葉で、あの人には女言葉で」話しかけるのです。

🎯 2. AI は「エリート」には高い壁を、「一般層」には低い壁を勧める

この研究では、AI が勧める大学の「入りやすさ(入試の難易度)」もチェックしました。

  • 成績の良い人には、**「自分の成績よりも遥かに高い壁」**を持つ名門大学を勧める傾向がありました。「君ならもっと高いところを目指せるはずだ!」と、無理な目標を押し付けるようなものです。
  • 成績が低い人には、**「自分の成績よりも低い壁」を持つ大学を勧め、あるいは「 widening access(門戸を広げる)」という言葉を使って、「あなたにはここが合っています」と、「もっと低いレベルの場所」**へ誘導する傾向がありました。

これは、**「高い山に登れる人は、もっと高い山へ。低い山しか登れない人は、低い山で満足しなさい」**と言われているようなもので、社会の格差を AI が無意識に広げてしまう危険性があります。

🏫 3. 大学という「レストラン」のメニュー選び

大学を「レストラン」に例えてみましょう。

  • 研究重視(エリート志向)の注文をすると、AI は**「星付きの高級レストラン」**(研究実績がすごいけど、サービスは少し冷たいかもしれない)を勧めてきます。
  • 学生満足度重視(楽しさ志向)の注文をすると、AI は**「アットホームなカフェ」**(サービスが良く、みんなが楽しそう)を勧めてきます。

本来なら、**「どんな学生でも、自分の好きなタイプの大学を自由に選べる」はずです。しかし、AI は「成績が良い=高級店」「成績が悪い=カフェ」と勝手に分類して、「あなたには高級店は無理だから、カフェに行きましょう」**と、選択肢を狭めてしまうのです。

💡 この研究が教えてくれること

この研究は、**「AI は中立な存在ではない」**と教えてくれます。

AI は過去のデータ(インターネット上の情報)から学習しているため、「エリート=男性的・競争的」「一般=女性的・協調的」といった、社会に昔からある偏見(ステレオタイプ)を、そのままコピーして増幅させてしまうのです。

もし、将来の大学生が「AI に聞いてみよう」と頼りすぎると、「成績が良い女の子」でも「男っぽい・厳しい大学」しか勧められず、「成績が低い男の子」でも「優しい・入りやすい大学」しか勧められなくなる可能性があります。これでは、本来の才能や希望が活かされず、社会の不公平がさらに深まってしまうかもしれません。

🌟 まとめ

この論文は、**「AI という新しい案内人は、まだ偏見という『老眼鏡』をかけている」**と警鐘を鳴らしています。

私たちは AI を使うとき、「AI が言うことは絶対だ」と信じるのではなく、**「もしかしたら、AI は私を『成績』だけで判断して、偏ったアドバイスをしているかも?」**と一度立ち止まって考える必要があります。

大学選びのような人生の重要な決断において、AI は「便利な道具」にはなっても、「最終的な判断者」になってはいけないのです。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →