CONCUR: Benchmarking LLMs for Concurrent Code Generation

既存のベンチマークが逐次コードに焦点を当てているのに対し、デッドロックや競合状態などの並行性特有の課題を評価できるよう、教科書由来の43問題と72のバリエーションから構成される新しいベンチマーク「CONCUR」を提案し、大規模言語モデルの並行コード生成能力を評価した。

Jue Huang, Tarek Mahmud, Corina Pasareanu, Guowei Yang

公開日 2026-03-05
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(大規模言語モデル)が『並行処理』という難しいプログラミングができるかどうかをテストする、新しい試験問題セット『CONCUR』」**について紹介しています。

わかりやすく言うと、**「AI に『複数の人が同時に作業するルール』を教えるテスト」**を作ったというお話です。

以下に、日常の例えを使って簡単に解説します。


1. なぜ新しいテストが必要だったの?(背景)

これまでの AI のコード生成テスト(HumanEval など)は、**「一人の料理人が順番に料理を作る」**ような、単純な手順(逐次処理)ばかりを評価していました。

しかし、実際のソフトウェアの世界では、**「複数の料理人が同時に調理場を使って、同じ材料を扱ったり、同じオーブンを共有したりする」ような「並行処理(コンカレンシー)」**が不可欠です。

  • 問題点: 従来のテストでは、AI が「同時に作業するルール」を間違えても、**「順番にやれば正しく動いたから OK」と判定されてしまい、実際の現場では「誰かが材料を奪い合う(競合状態)」「お互いが相手の料理が終わるのを待ち続けて動けなくなる(デッドロック)」**という致命的なバグを見逃していました。

2. CONCUR 試験とは?(仕組み)

この論文では、**「AI が並行処理のルールを守れるか」**を厳しくチェックする新しい試験「CONCUR」を考案しました。

📚 試験問題の作り方

  • 基本問題(43 問): 有名なプログラミングの教科書から、並行処理の基礎的な問題を抜粋しました。
  • 変形問題(72 問): 基本問題を少し変えて、AI が「丸暗記」して答えられないようにしました。
  • 合計 115 問: これらを AI に解かせます。

🔍 採点方法(ここがすごい!)

従来のテストは「正解のコードと比べて、似ているか?」(CodeBLEU という指標)で採点していましたが、これでは「形は似ているが、中身はバグだらけ」なコードも合格してしまいます。

そこで、CONCUR では**「Java PathFinder(JPF)」という「シミュレーター」**を使います。

  • アナロジー:
    • 従来のテスト: 「料理のレシピ(コード)が、本物のレシピと文字が似ているか?」を比べる。
    • CONCUR のテスト: 「そのレシピで実際に料理を作らせて、**『料理人が何人でも同時に動いても、火事(バグ)が起きないか』**を、ありとあらゆるパターンの動き(シミュレーション)でチェックする」。

このシミュレーターは、**「もし A さんが先に取ったら?」「もし B さんが先に取ったら?」**というすべての可能性を網羅的にチェックするため、見逃しがないのです。

3. 23 種類の AI にテストさせた結果

最新の AI モデル 23 種類にこのテストを受けさせました。

  • 結果: 多くの AI は「コードが書ける(コンパイルできる)」レベルには達しましたが、**「並行処理のルールを守って正しく動く」**レベルには、トップの AI でも 9 割程度、下位の AI は 1 割程度しか達していませんでした。
  • よくある失敗:
    • デッドロック: 「お互いが相手の料理が終わるのを待ち続けて、誰も動けなくなる」。
    • 競合状態: 「二人の料理人が同時に同じ卵を割ろうとして、卵が割れなくなる」。
    • 単一スレッド化: 「並行処理をしろと言われたのに、実は一人だけで順番に作業していた」(これは AI が「並行処理の道具」は知っているが、「実際に並行して動かす」ことを忘れているパターン)。

4. 重要な発見:「似ている」だけではダメ

この研究で最も重要な発見は、「正解のコードと文字が似ている(CodeBLEU スコアが高い)こと」と「実際にバグなく動くこと」は、ほとんど関係がないということです。

  • 例え話:
    • 「完璧なレシピ(正解)」と「少し違うレシピ(AI の回答)」を比べたとき、文字の並びは 90% 似ていても、「火がついたまま放置する」という致命的なミスが含まれているかもしれません。
    • 従来のテストは「文字の並び」しか見ていませんでしたが、CONCUR は「実際に火がついていないか(バグがないか)」をチェックします。

5. まとめ

この論文は、**「AI にコードを書かせるなら、単に『似ている』かだけでなく、『複数の人が同時に動いても大丈夫か』を厳しくチェックする必要がある」**と警鐘を鳴らしています。

  • CONCUR: AI の並行処理能力を測るための新しい「厳格な試験場」。
  • JPF: ありとあらゆる動きをシミュレーションしてバグを見つける「超精密な検査員」。
  • 結論: 今の AI はまだ、複雑な「同時作業」のルールを完全にマスターできていません。もっと練習(と、より良い評価基準)が必要です。

この研究は、AI がより安全で信頼性の高いソフトウェアを作れるようになるための、重要な第一歩となっています。