On the Concept of Violence: A Comparative Study of Human and AI Judgments

この論文は、物理的暴力から社会的排除まで多様なシナリオにおける人間と大規模言語モデル(LLM)の判断を比較分析し、曖昧な道徳的概念をどのように処理するかを通じて、AI が日常における harm や規範の解釈をどのように形成・変容させるかを明らかにするものである。

原著者: Mariachiara Stellato, Francesco Lancia, Chiara Galeazzi, Nico Curti

公開日 2026-02-20
📖 1 分で読めます☕ さくっと読める

これは以下の論文のAI生成解説です。著者が執筆または承認したものではありません。技術的な正確性については原論文を参照してください。 免責事項の全文を読む

Each language version is independently generated for its own context, not a direct translation.

AI と人間は「暴力」をどう見ているか?

~ラジオの番組から始まった、驚くべき比較実験の物語~

この論文は、**「暴力とは何か?」**という難しい問いを、人間と最新の AI(人工知能)がどう答えるかを比べた面白い研究です。

まるで**「AI という新しい住人が、人間の社会ルールをどう理解しているか」**を試すような実験でした。


1. 実験の舞台:ラジオの「道德のテスト」

この研究のきっかけは、イタリアのラジオ番組『Chiacchiericcio(チャキリッチョ)』での出来事でした。

ホストがリスナーに**「22 のシチュエーション」**を提示し、「これは暴力?非暴力?それとも状況による?」と尋ねました。
例えば、

  • 「バスで知らない人をじっと見つめる」
  • 「SNS で他人に侮辱的なコメントをする」
  • 「デモ隊が警察を殴る」
  • 「あるグループを物理的に排除すべきだと言う発言を、司会者が途中で遮った」

など、単純な暴力から、言葉の暴力、あるいは「状況次第」のグレーゾーンまで含まれていました。
3,000 人以上のリスナーが答え、その結果は**「人間は意見がバラバラだ」**という驚くべきものでした。ある人にとっては「明らかな暴力」でも、別の人にとっては「冗談」や「状況による」と捉えられていたのです。

2. 対戦相手:18 種類の「AI 脳」

次に、研究者たちは 18 種類の異なる AI モデル(Llama, Mistral, Qwen など、サイズも性格も違う)に、同じ 22 の質問を投げかけました。
AI は人間のように感情や経験を持たず、**「学習したデータとルール」**だけで答える存在です。

3. 驚きの結果:AI と人間の「ズレ」

結果は、**「AI と人間は、暴力の定義で大きく食い違っていた」**というものでした。

🍎 アナロジー:AI は「硬い箱」、人間は「柔らかい粘土」

  • 人間(柔らかい粘土):
    人間は「文脈」や「空気」を重視します。「SNS での侮辱」は、物理的な暴力ではないけれど、心の痛みを与える「暴力」だと感じる人もいれば、単なる「言葉の応酬」だと感じる人もいます。人間は**「状況による(Depend-on)」**という曖昧な答えを多く選びました。
  • AI(硬い箱):
    AI は**「白か黒か」**を急ぐ傾向がありました。「状況による」という中間の答えを避け、無理やり「暴力」か「非暴力」のどちらかに分類しようとしたのです。
    • 例 1:ネットでの侮辱
      人間は「これは暴力だ!」と 9 割が判断しましたが、AI は「5 割しか暴力だと言わなかった」のです。AI は「殴る・蹴る」のような物理的な暴力を重視し、言葉の暴力を軽く見ていた可能性があります。
    • 例 2:暴力を煽る発言を「遮られた」話
      「ある人が暴力を煽ろうとしたが、司会者が止めた」というシチュエーション。人間は「止まったから暴力ではない」と考えましたが、AI は「発言そのものが暴力だ」と判断し、人間よりも多くを「暴力」としました。AI は**「結果」よりも「意図や言葉そのもの」**を重視する傾向が見えました。

4. なぜこんな違いが生まれたのか?

  • AI の「安全装置」のせいか?
    AI は「有害なことを言わないように」と厳しく訓練されています。しかし、そのせいで**「曖昧なニュアンス」を排除し、単純化して答えようとする**癖がついているようです。
  • 人間は「多様性」がある
    人間は文化や経験によって暴力の定義が変わりますが、AI は「平均的なデータ」や「安全基準」に基づいて、**「一つの正解」**を導き出そうとします。

5. 私たちが気をつけるべきこと

この研究が教えてくれる最大の教訓は、**「AI は『真理』を語る神様ではない」**ということです。

  • AI は「自信満々」だが、中身は確率の計算
    AI は「これは暴力です!」と自信を持って答えますが、それは人間のような道徳観念ではなく、単に「学習データの中でこうなる確率が高い」と言っているに過ぎません。
  • 「曖昧さ」を消さないで
    人間の社会には「グレーゾーン」や「文脈」が重要です。AI がその曖昧さを消して「正解」を出そうとするとき、私たちは**「本当にそれでいいのかな?」**と疑う必要があります。

まとめ:AI は「鏡」だが、歪んだ鏡

この研究は、AI が人間の社会をどう見ているかを映す**「歪んだ鏡」**のようなものです。
AI は物理的な暴力には敏感ですが、言葉の暴力や、状況によるニュアンスには少し鈍感です。

私たちが AI を使うときは、**「AI の答えを絶対の正義だと思わず、人間の判断と照らし合わせて、文脈を考える」**ことが大切だというメッセージが込められています。


一言で言うと:
「AI は『暴力』を物理的な殴り合いとしか考えず、言葉の暴力や『状況次第』という人間の複雑な感覚を、単純化して見落としてしまう傾向がある。だから、AI の判断を鵜呑みにせず、人間が『文脈』を大切に考える必要があるよ」というお話です。

自分の分野の論文に埋もれていませんか?

研究キーワードに一致する最新の論文のダイジェストを毎日受け取りましょう——技術要約付き、あなたの言語で。

Digest を試す →