Gate News 3月9日、チューリッヒ連邦工科大学(ETH Zurich)の研究チームは、論文「Can AI Agents Agree?」の中で、大規模言語モデル(LLM)エージェントの拜占庭(バザンティン)合意能力を検証した。背景として、一部の参加者が悪意を持つ可能性のある条件下での合意形成は、すべての分散型システムにとって核心的な課題であり、ブロックチェーンのさまざまな合意メカニズムは本質的に拜占庭耐性の問題の異なるバリエーションを解決しようとしている。
チームはQwen3-8BとQwen3-14Bのモデルを用い、異なる集団規模(4、8、16のエージェント)と悪意のあるノードの割合の下で数百回のシミュレーションを実施した。テストでは、複数のエージェントが同期された全結合ネットワークを通じて提案を繰り返しブロードキャストし、投票を行った。中には悪意の拜占庭ノードとして意図的に破壊行為を行うエージェントも含まれていた。
結果は、悪意のないノードだけの場合でも有効な合意率はわずか41.6%(Qwen3-14Bは67.4%、Qwen3-8Bはわずか15.8%)にとどまったことを示している。ノード数が増えるほど合意は難しくなり、成功率は4エージェント時の46.6%から16エージェント時の33.3%へと低下した。悪意のあるノードを加えると、合意はさらに悪化し、失敗は主にタイムアウトや収束停止(活性の喪失)によるものであり、数値の改ざんではなかった。プロンプトに「悪意のあるノードが存在する可能性がある」と記載しただけで、Qwen3-14Bの成功率は75.4%から59.1%に低下し、実際に悪意のあるノードが存在しなくてもこの結果となった。
論文は、信頼できる合意は現状のLLMエージェントの自発的な能力ではなく、堅牢な調整に依存した分散展開には慎重な態度を取るべきだと結論付けている。