AILS-NTUA at SemEval-2026 Task 10: Agentic LLMs for Psycholinguistic Marker Extraction and Conspiracy Endorsement Detection

本論文は、意味的曖昧性の解消と構造的局所化の分離を可能にする動的識別連鎖思考(DD-CoT)と「反エコーチェンバー」アーキテクチャを導入し、心理言語学的マーカーの抽出と陰謀論の支持検出を統合的に処理する新しいエージェント型 LLM パイプラインを提案し、SemEval-2026 タスク 10 で高い性能を達成したことを報告するものである。

Panagiotis Alexios Spanakis, Maria Lymperaiou, Giorgos Filandrianos, Athanasios Voulodimos, Giorgos Stamou

公開日 2026-03-06
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI が conspiracy 陰謀説(陰謀論)を見分けるための新しい仕組み」**について書かれています。

通常、AI は「陰謀説っぽい言葉が含まれていれば、それは陰謀説だ!」とすぐに判断してしまいがちです。しかし、実際には「ニュースが『ある人が陰謀説を主張している』と報じているだけ」の場合もあります。これを混同してしまうと、AI は間違った判断を下してしまいます。

この研究チーム(NTUA の AILS 研究所)は、**「単一の AI ではなく、複数の AI 役者がチームになって議論する」**という新しい方法を開発しました。

以下に、難しい専門用語を使わず、身近な例え話で説明します。


🕵️‍♂️ 物語:「陰謀論探偵団」の活躍

このシステムは、2 つの大きな任務(タスク)をこなすために、2 つの異なるチームで構成されています。

1. タスク 1:「証拠の切り抜き」チーム(S1)

役割: 文章の中から「陰謀説のヒント(マーカー)」を正確に切り取ること。
例: 「政府が隠している」「彼らは計画している」といった部分です。

  • 従来の AI の問題点:
    従来の AI は、文章を「一気呵成」に読んで、勘違いして間違った場所を切り取ったり、どこからどこまでが「証拠」なのかを曖昧にしたりしていました。まるで、**「速読で本を読み、適当に単語を抜き出す子供」**のようです。

  • このチームの新しい方法(DD-CoT):
    ここでは、**「疑い深い探偵」「厳格な編集者」**の二人組を作りました。

    1. 探偵(Generator): 「ここは証拠だ!」と提案します。
    2. 編集者(Critic): 「待てよ、本当にそうか?『彼らが』ではなく『彼らに』ではないか?」と厳しくチェックします。
    3. 編集者(Refiner): 探偵の提案を修正し、**「原文と一字一句同じ」**になるように正確に切り取ります。

    🌟 アナロジー:
    これは、**「料理のレシピ作り」**に似ています。
    従来の AI は「材料を適当にすくい取る」感じでしたが、新しい方法は「まず『何が必要か』を議論し(探偵)、次に『正確に計量して切る』(編集者)」という手順を踏むので、失敗が激減しました。

2. タスク 2:「陰謀説かどうかの判定」チーム(S2)

役割: その文章が「陰謀説を信じている(支持している)」のか、単に「ニュースとして報じているだけ」なのかを判断すること。
例: 「『地球は平らだ』という噂がある」という文は、陰謀説を信じているわけではありません。

  • 従来の AI の問題点(レポーターの罠):
    従来の AI は、**「陰謀説という言葉が出てきたら、すぐに『支持している』と判断する」というミスをしていました。
    🌟 アナロジー:
    これは、
    「ニュース速報を聞いただけで、その内容を信じていると勘違いする人」のようです。「『殺人事件が起きた』とニュースが報じている」のを聞いて、「お前が犯人だ!」と勘違いしてしまうようなものです。これを「レポーターの罠(Reporter Trap)」**と呼んでいます。

  • このチームの新しい方法(Anti-Echo Chamber):
    ここでは、**「裁判所」**のような仕組みを作りました。

    1. 検察官(Prosecutor): 「これは陰謀説だ!証拠がある!」と主張します。
    2. 弁護人(Defense): 「待て!これは単なる報道だ。信じているわけではない!」と反論します。
    3. 文字通り主義者(Literalist): 「文章に書かれていることだけを厳格に読む」という役割です。
    4. 心理 profiler(Profiler): 「書き手の態度や感情」を分析します。

    これら 4 人が**「互いに相手の意見を見ずに」独立して判断し、最後に「裁判長(Judge)」**が全員的意见をまとめて最終決定を下します。

    🌟 アナロジー:
    これは、「喧嘩する前に、反対意見を持つ友達と議論する」ようなものです。
    一人で「これは間違いだ!」と決めつけるのではなく、「いや、違う見方もあるのでは?」と反対意見を出す人がいることで、
    「単なる報道を『支持』と勘違いするミス」が劇的に減りました。


🏆 結果:なぜこれがすごいのか?

この新しい「チームワーク型 AI」は、従来の AI と比べて驚くほど良い結果を出しました。

  • タスク 1(証拠の切り抜き): 精度が2 倍にアップしました。
  • タスク 2(支持の判定): 精度が約 50% 向上しました。

特に重要なのは、**「AI が自分で自分の間違いを修正する」**という点です。

  • 従来の AI:「これが答えだ!」と自信満々に間違える。
  • 新しい AI:「待て、これは違うかもしれない。反対意見を考えてみよう」と議論して、正しい答えにたどり着く。

🚀 まとめ

この論文が伝えたいことは、**「AI をもっと賢くするには、単に頭が良い AI を使うのではなく、『議論するチーム』を作ることが重要だ」**ということです。

  • 探偵と編集者のチームが、文章の「どこが重要か」を正確に切り取る。
  • 裁判所のチームが、「それは本当に信じているのか、ただ報じているだけか」を慎重に議論する。

このように、**「役割を分けて、互いにチェックし合う」**という仕組みを作ることで、AI は人間の心理や言葉のニュアンスを、これまでになく深く理解できるようになったのです。

これは、AI が単なる「答えを出す機械」から、「考えを巡らせるパートナー」へと進化するための重要な一歩と言えます。