The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

この論文は、成人を対象とした AI 生成の非同意性画像(ディープフェイクポルノ)を容易に作成可能にする「悪意ある技術生態系」の存在を指摘し、NIST の報告書に基づく現在のガバナンス手法がその生態系を効果的に規制できていないことと、その背景にある誤った前提を明らかにする survivor-centered(生存者中心)のアプローチを採った研究です。

Michelle L. Ding, Harini Suresh

公開日 Mon, 09 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI によって作られた、同意のない露骨な画像(いわゆる『ディープフェイク・ポルノ』)」**が、なぜ今の技術的なルールでは防ぎきれないのかを、非常にわかりやすく、かつ痛烈に指摘したものです。

著者たちは、この問題の核心を**「悪意ある技術エコシステム(MTE)」**と呼んでいます。これを理解するために、いくつかの身近な例えを使って説明しましょう。

1. 問題の本質:「悪魔の工具箱」が溢れている

今の状況は、以下のような状態に似ています。

  • 従来の考え方: 「大きな工場で作られた高価な機械(大手 AI 企業)が、悪意ある人が操作して悪いものを作ってしまう」という想定でした。だから、工場の入り口で厳しくチェックすれば大丈夫だと思っていました。
  • 実際の現実: しかし、実際には**「誰でも持ち歩ける、安価で簡単な『悪魔の工具箱』」**が、インターネットの至る所に溢れています。
    • GitHub(プログラマーの共有サイト)には、顔を入れ替えるための無料のプログラムが数千件あります。
    • これらを組み合わせて、専門知識がなくても**「数分間で、誰の顔でも裸に見せかけるアプリ」**が約 200 種類も作られています。
    • これらは「オープンソース(誰でも使える)」なので、一度作られれば、コピーして世界中に瞬く間に広がり、消してもまた新しいのが生まれます。

この「工具箱」の集まりこそが、論文で言う**「悪意ある技術エコシステム(MTE)」**です。

2. 現在のルールがなぜダメなのか?(3 つの大きな誤解)

政府や技術団体(NIST など)が作った「AI による合成コンテンツのルール」は、この「悪魔の工具箱」に対して、まるで**「スプーンでダムを止めようとしている」**ような無力さがあります。論文は、その理由を 3 つの誤解として指摘しています。

① 誤解:「偽物だとわかれば、害はない」

  • 今のルール: 「AI だとわかるように『これは偽物です』とラベルを貼れば、大丈夫」と考えています。政治的な嘘や詐欺を防ぐにはこれでいいかもしれません。
  • 現実: 被害者にとって、**「偽物だとわかっていても、傷つく」**のです。
    • 例え「これは AI が作った嘘の画像だ」とわかっていても、その画像がネットに広まれば、被害者は社会的な評価を下げられ、精神的な苦痛や金銭的損失を被ります。
    • 「嘘だから大丈夫」という考えは、被害者の痛みを軽視しています。たとえ粗末な作り(偽物だとバレバレ)でも、暴力であることに変わりはありません。

② 誤解:「子供向けの規制と同じでいい」

  • 今のルール: 「子供が写った性犯罪画像(CSAM)」と「大人の同意のない画像(NCII)」を同じカテゴリーとして扱っています。
  • 現実: 子供の場合は「法律で禁止されているから、データベースで即座に検知して削除できる」のが有効です。
    • しかし、大人の場合、その人が「同意したか」は画像を見ただけではわかりません。 被害者が「これは私の写真だ」と主張するまで、システムは「これは合法な写真かもしれない」と判断してしまいます。
    • 子供向けの強力なフィルタリング技術が、大人の被害に対しては機能しないのです。

③ 誤解:「大手企業だけが悪い」

  • 今のルール: 「大手の AI 企業が作った機械(Stable Diffusion など)に、入力制限をかける」ことに注力しています。
  • 現実: 今回の問題の中心は、**「悪意ある目的で作られた小さなツール(悪魔の工具箱)」**です。
    • 大手の AI は「何でも作れるが、禁止事項がある」という前提ですが、この「悪魔の工具箱」は**「最初から『性犯罪画像を作るため』にしか設計されていない」**のです。
    • 大手のルールを適用しても、この「悪用専用ツール」には全く効きません。

3. 結論:被害者中心の考え方に変わるべき

この論文が伝えたいメッセージはシンプルです。

「技術が『悪用される』からではなく、技術そのものが『悪意を持って作られた』からこそ、私たちはもっと強い対策をしなければならない」

現在の対策は、被害者が「削除を依頼する」こと(反応)に頼りすぎています。しかし、被害者が心身ともに疲弊している中で、自ら警察やプラットフォームに訴え出ることは非常に困難です。

「悪魔の工具箱」そのものを、技術的なレベルで封じ込める(予防する)仕組みが必要です。

まとめ

この論文は、**「AI による性被害」**という深刻な問題に対し、現在の「透明性」や「大手企業の規制」という古い考え方が通用しないことを暴き出しました。

まるで、**「泥棒が使う万能カギ(悪意あるツール)」が溢れているのに、「家の鍵(大手 AI の規制)」**だけを強化しても意味がないのと同じです。私たちは、その「万能カギ」自体を無効化し、被害者が守られる社会を作るための、新しい技術的なルール作りを急がなければなりません。