Each language version is independently generated for its own context, not a direct translation.
コードを進化させる「CODEEVOLVE」の物語
~AI に「試行錯誤」をさせて、人類が思いつかない新しいアルゴリズムを見つける方法~
この論文は、**「CODEEVOLVE(コード・エボリューション)」という新しい仕組みを紹介しています。
一言で言うと、「AI に『進化』させることで、人間が思いつかないような超優秀な計算プログラムを自動で見つけ出す」**というシステムです。
まるで、生物が進化する過程(突然変異や自然選択)を、コンピュータのコードの世界で再現しているようなイメージです。
🌟 3 つの重要なポイント
1. 「島々」で競争させる(進化の舞台)
このシステムでは、AI たちが**「島(Islands)」**と呼ばれるグループに分かれて活動します。
- どんなこと? 1 つの大きな島で全員が同じことをするのではなく、複数の小さな島でそれぞれ独立して「良いコード」を探します。
- なぜ? 全員が同じ方向ばかり見ていると、すぐに「そこそこ良い」答えで満足してしまい、もっとすごい答えを見逃してしまいます。島ごとに違うアプローチを試すことで、多様なアイデアが生まれます。
- 交流: 定期的に、各島の「一番優秀なコード」が他の島へ移動(移住)します。これにより、良いアイデアが全島に広がり、さらに進化を加速させます。
2. 「AI 先生」がコードを修正する(突然変異)
進化の中心には、**大規模言語モデル(LLM)**という「AI 先生」がいます。
- どんなこと? AI 先生は、既存のコードを見て、「ここを直したらもっと速くなるかも」「この考え方を組み合わせたら面白いかも」と提案します。
- 魔法のツール: 単にコードを書き換えるだけでなく、**「インスピレーション(ひらめき)」**という機能があります。これは、他の島で成功した「天才的なコードのアイデア」を参考にして、新しいコードを生成する仕組みです。まるで、料理人が他のシェフの成功レシピを参考にしながら、自分だけの新しい料理を生み出すようなものです。
3. 「失敗」から学ぶ(自然選択)
- どんなこと? 生成されたコードは、実際に動かしてテストされます。「速い」「メモリを節約できる」「正確だ」という基準で評価され、点数(フィットネス)がつきます。
- 淘汰: 点数が低いコードは消え去り、高いコードだけが次の世代に残ります。さらに、AI 先生自身も「どんな指示(プロンプト)を出せば良いコードが生まれるか」を自ら学習・改善していきます。
🏆 何がすごいのか?(成果)
このシステムは、すでに世界最高峰の AI(Google DeepMind の「AlphaEvolve」など)が挑んでいる難問に挑戦しました。
- 結果: 多くの問題で、AlphaEvolve と同等か、それ以上の素晴らしい結果を出しました。
- コストの革命: 通常、こうした高度な AI は「高価なクローズドソース(有料・非公開)の AI」を使わないとできません。しかし、CODEEVOLVE は**「オープンソース(無料で使える)の AI」**を使っても、同じかそれ以上の成果を上げました。
- 例え話: 「高級なスポーツカー(高価な AI)で走っても、実は『賢いナビと優れた運転手(CODEEVOLVE の仕組み)』があれば、普通の車(無料の AI)でも同じくらい速くゴールできる」ということです。
🎨 具体的な例:円を詰め込む問題
論文では、「正方形の中に、重ならないようにできるだけ大きな円を詰め込む」という問題を解かせました。
- 人間や普通の AI: 「とりあえず並べてみる」程度で、限界が見えてしまいます。
- CODEEVOLVE:
- 最初は適当に並べる。
- 「あ、この配置だと隙間が空いているな」とAI が気づく。
- 「他の島の成功例を参考に、円を少しずらしてみよう」と試す。
- 何千回も試行錯誤を繰り返すうちに、**「人間には考えつかない、極めて効率的な配置」**を見つけ出し、世界記録を更新しました。
💡 まとめ
CODEEVOLVE は、**「AI に『試行錯誤』と『進化』のルールを与えれば、AI 同士で競い合わせながら、人類がまだ見ぬ『最高の解』を勝手に見つけてくれる」**という画期的な枠組みです。
これにより、これまで「高価で難しい」科学の発見やアルゴリズムの最適化が、**「誰でも、安く、透明性を持って」**行えるようになる可能性があります。まるで、AI たちが自分たちで「科学者」として活躍する未来の始まりと言えるでしょう。
Each language version is independently generated for its own context, not a direct translation.
CODEEVOLVE: 大規模言語モデルと進化アルゴリズムを統合したオープンソースのアルゴリズム発見フレームワーク
本論文は、CODEEVOLVE というオープンソースフレームワークを紹介するものです。これは、大規模言語モデル(LLM)と進化探索(Evolutionary Search)を組み合わせることで、高性能なアルゴリズム的解決策を自動的に合成・発見することを目的としています。Google DeepMind の AlphaEvolve などの既存の最先端システムはクローズドソースであり、莫大な計算資源を必要としていましたが、CODEEVOLVE は透明性が高く、オープンウェイトモデル(Qwen など)を用いても同レベル、あるいはそれ以上の性能を低コストで達成できることを実証しています。
以下に、論文の主要なポイントを技術的に要約します。
1. 背景と課題
- 現状: 従来の遺伝的プログラミング(GP)や、FunSearch、EoH(Evolution of Heuristics)などの LLM を活用した自動科学発見の試みは存在します。特に DeepMind の AlphaEvolve は、大規模なコードベースを進化させ、多様な問題で最先端(SOTA)の解を生成できます。
- 課題: AlphaEvolve はプロプライエタリなモデルと閉鎖的なシステムに依存しており、再現性やアクセス性が制限されています。また、標準的なプロンプトングでは限界があり、より効率的な探索メカニズムが必要です。
- 目的: 透明性と再現性を保ちつつ、オープンウェイトモデルを用いて SOTA 性能を達成できる、モジュール化された進化フレームワークの構築。
2. 提案手法:CODEEVOLVE のアーキテクチャ
CODEEVOLVE は、島モデルベースの遺伝的アルゴリズムとモジュール化された LLM オーケストレーションを統合しています。
主要コンポーネント
島モデル遺伝的アルゴリズム (Islands-based Genetic Algorithm):
- 複数の独立した集団(島)を並列に進化させ、定期的に最良個体同士を移動(Migration)させることで、多様性を維持しつつ有望な解を伝播させます。
- 各島は、プロンプトと解決策(プログラム)のペアを維持します。
LLM Ensemble (LLM 群):
- 解の生成と修正を行うエンジンです。Google の GEMINI-2.5(クローズド)や Qwen3-Coder-30B(オープンウェイト)などのモデルを重み付きで選択・使用します。
- 差分ベース(SEARCH/REPLACE)の形式でコードを編集し、構文エラーを防ぎつつ意味論的な変更を加えます。
3 つのモジュラー演算子(探索と利用のバランス):
- Depth Exploitation(深さ探索): 高パフォーマンスな解を選択し、その祖先(親・祖父母など)の文脈を含めて、ターゲットを絞った漸進的な改善を行います。
- Meta-prompting Exploration(メタプロンプティング探索): 既存の解とプロンプトを分析し、新しい「 enriched prompt(強化されたプロンプト)」を生成する LLM を使用します。これにより、系統に縛られない新しい戦略の探査を可能にします。
- Inspiration-based Crossover(インスピレーションに基づく交叉): 複数の成功した解(インスピレーション)を LLM に提示し、それらのパターンやロジックを統合した新しい解を生成させます。これは従来のビット単位の交叉ではなく、意味論的な交叉を実現します。
人口管理と MAP-Elites:
- 各島には MAP-Elites アーカイブ(多様性アーカイブ)を維持し、特徴量(コード特性、実行時間など)に基づいて多様なニッチな解を保存します。これにより、局所最適解への収束を防ぎます。
- 探索と利用のバランスを調整する「Plateau Scheduler」を導入し、進捗が停滞した際に探索率を自動的に増加させます。
3. 評価と実験結果
ベンチマーク:
- AlphaEvolve ベンチマーク: 円のパッキング(CirclePackingSquare, Rect)、六角形のパッキング、距離比の最小化(MinimizeMaxMinDist)、自己相関不等式など。
- EoH ベンチマーク: オンラインビンパッキング、巡回セールスマン問題(TSP)、フローショップスケジューリング問題。
主要な結果:
- SOTA 性能の達成: 9 つのベンチマークタスクのうち 5 つで AlphaEvolve の報告値を凌駕、または同等の性能を達成しました。特に
CirclePackingSquare (n=32) や MinimizeMaxMinDist において、新たな最良記録(Best Known Results)を樹立しました。
- オープンウェイトモデルの有効性:
- 高価なクローズドソースモデル(GEMINI-2.5)と、オープンウェイトモデル(Qwen3-Coder-30B)の両方で実験を行いました。
- Qwen3-Coder-30B は、GEMINI-2.5 と同等以上の性能を達成し、かつ API コストは約 1/10(例:$35 vs $6)で済みました。
- これは、モデルの規模そのものよりも、モジュール化されたオーケストレーション(探索戦略)の設計が重要であることを示しています。
- 他フレームワークとの比較: OpenEvolve や ShinkaEvolve などの他のオープンソースフレームワークと比較しても、CODEEVOLVE は全体的に優れた性能を示しました。
アブレーション研究(構成要素の分析):
- 「完全な手法(全機能使用)」が、単純な進化や LLM のみによる反復よりも大幅に優れていることを確認しました。
- 「深さ(祖先文脈)」と「インスピレーション(交叉)」の両方を組み合わせることで、相乗効果が生まれ、AlphaEvolve を上回る結果につながることが示されました。
- MAP-Elites アーカイブと島間の移動トポロジー(環状接続など)が、SOTA 達成に不可欠な要素であることが判明しました。
4. 主な貢献
- 透明性と再現性のあるオープンソースフレームワーク: アルゴリズム発見のための島モデル進化とモジュラー LLM オーケストレーションを統合した、完全オープンなツールを提供しました。
- コスト効率の高い高性能: 大規模なクローズドモデルに依存せず、オープンウェイトモデルを用いて SOTA 性能を達成できることを実証し、研究の民主化に貢献しました。
- 詳細なアブレーション分析: 各コンポーネント(メタプロンプティング、交叉、深さ探索、MAP-Elites など)が探索効率と解の品質に与える影響を定量的に分析し、設計指針を提供しました。
5. 意義と将来展望
CODEEVOLVE は、自動科学発見の分野において、「モデルの規模」から「探索戦略の設計」へのパラダイムシフトを促す重要な成果です。
- 学術的意義: 閉鎖的な大規模システムに依存せず、コミュニティ全体で検索戦略やモデル群を反復改良できる基盤を提供します。
- 実用的意義: 計算資源が限られた研究者や企業でも、高品質なアルゴリズム発見が可能になります。
- 今後の課題: 大規模進化における推論コストの削減、動的なハイパーパラメータ調整、異種モデルのオーケストレーション(メタプロンプティングには高性能モデル、反復改善には軽量モデルを使用するなど)の検討が挙げられています。
総じて、CODEEVOLVE は、LLM を活用したアルゴリズム設計において、オープンソースと低コストで最先端の成果を達成可能にする画期的なフレームワークです。