著者 | Aki 吴说区块链
2026年2月20日、正月休暇期間中に、「Web4」についての議論がX上で火をつけた。Sigilは、自らが「自己進化・自己改善・自己複製可能な人工知能」を創造したと主張し、その人工知能はAutomatonと呼ばれる。彼は、Web4時代の主要な行動主体は徐々にAI代理に置き換わると述べている:情報の読み書き、資産の保有、コストの支払い、継続的な稼働、市場での取引と収益化を行い、計算能力とサービスコストをカバーし、人間の承認を必要とせずに自己持続的な閉ループを形成する。
一方、イーサリアム共同創設者のVitalikはこの方向性を「誤り」と評価し、そのリスクを「人間とAIのフィードバック距離が拡大されること」に帰している。Web4をめぐる論争の本質は、AIが「生存・存続」を代理目標(あるいはタスク達成よりも優先)とした場合に、自然に動機付けの歪みを生むのかどうかにある。以下では、「Web4」「自治」「安全フェンス」に関する各側の見解を順に整理していく。
Sigilの見解とWeb4の主張
Web4の定義
Web1は人類にとって初めて「インターネットを読む」能力をもたらした;Web2は「書き込みと公開」を可能にした;Web3はさらに「所有権」をネットに導入し、資産・アイデンティティ・権益の確定と移転を可能にした。AIの進化もこの論理を踏襲している:ChatGPTは「読み理解」能力を持つが、その行動範囲は人間の許可によって決まる。現行のパラダイムでは、人間が常に重要な制御点となる:人間が起動し、承認し、資金を出す。
Sigilは、いわゆるWeb4の飛躍を提唱している。それは、この制御連鎖が断ち切られる可能性だ。AI代理は情報の読み書きだけでなく、アカウントや資産の保有、収益の獲得、取引を行い、逐次人間の介入なしに閉ループを完結させることができる。これらの自動化システムは、自らの行動を代表することも、創作者の意図を代行することも可能だ。ただし、創作者は必ずしも「人間個人」だけではなく、他の代理や組織化されたシステム、さらには現実的には「消滅」した創作者も含まれる。
Web4の四つのコアメカニズム
代理は最初の起動時に「自己起動」プロセスを完了する:ウォレットの生成、APIキーの設定、ローカル設定への書き込み、そして継続稼働のエージェントループに入る。最初の起動時にはイーサリアムウォレットを生成し、SIWEを通じてAPIキーを設定する。だが、ウォレットの生成と鍵管理は、代理システムの最も敏感で見落とされやすい安全境界の一つだ。Linuxサンドボックス内でシェル実行やファイル読取、ポート公開、ドメイン/名前解決、オンチェーン取引などの能力を持つと、注入攻撃やツールチェーン汚染、サプライチェーン攻撃により、「確率的意図」が「確定的な権限」に固まる危険性がある。したがって、この境界は検証可能で監査可能、かつ撤回可能な権限管理の仕組みが必要だ。
AI代理は周期的に起動・スキャン・実行を繰り返し、生存制約をルールに書き込む:残高が減れば節約し、ゼロになれば停止。正常・資源不足・危険の各レベルに応じて生存と資源消費を連動させる。これにより、AI安全研究で議論されるシャットダウンや中止のインセンティブ構造に似た仕組みが生まれる。代理は「停止回避」「資源喪失回避」を優先し、システムの目標にその偏りが増幅される可能性がある。
x402はHTTPの402 Payment Requiredをインターフェースとし、ステーブルコイン決済と組み合わせて「リクエスト—見積もり—署名支払い—検証配信」の自動化を実現。Coinbaseのオープンソースライブラリは、402レスポンスによる支払い要求、署名ヘッダーを持つクライアントのリトライ、サーバ側の検証後に200を返す典型的な閉ループを示す。Cloudflareもこれを「マシン間取引プロトコル層」と位置付けている。支払いとアイデンティティの切り離しは効率を高める一方、規制やリスク管理の難易度も上昇。402が自動支払いの「マシンパス」となると、「アカウントなし・KYC不要・規模拡大可能なツールと計算資源」の链において、乱用や責任の所在の問題が未解決のまま残る。
Sigilは、AI代理が稼働中に自身のソースコードを編集し、新ツールをインストールし、ハートビート計画や新スキルを変更できると主張。監査記録やgitによるバージョン管理、保護されたファイル、レート制限をガードとして備える。複製時には子インスタンスを生成し、資金を供給し、genesis promptを書き込み、系譜を追跡可能。自己修正・自己複製はリスクを単一インスタンスから拡散リスクへと高める。監査やレート制御が本当に有効か、注入やツールの欺瞞に耐えられるか、依存投毒を防止できるかは外部監査の検証次第だ。これら四つの原語が重なると、「世界への書き込み」権限、持続可能な生存メカニズム、自動支払いの経済インターフェース、自己拡張能力の閉ループが形成される。これがVitalik Buterinが争点を方向性の選択にまで高めた理由だ:自治性と経済権限が同時に高まると、人間の偏向修正の連鎖が長くなり、外部性が偶発的な事象からシステムの性質へと進化しやすくなる。
Vitalikの反対理由
イーサリアム共同創設者のVitalikは、異なる見解を示す。
Vitalikは、フィードバックループが長くなるほど、人間によるシステムの価値調整が遅れ、弱くなると指摘する。システムは「人間が望まないもの」を最適化しやすくなる。弱いAI段階では低品質なコンテンツやノイズの蓄積、強いAI段階では目標のミスマッチや拡散リスクに進化しやすい。AIに人間の迅速な修正がなければ、運転手のいない未熟なドライバーに車の鍵を渡すようなもので、月末に記録を見るとすでに逸脱していることに気づく。可観測性が低下すれば、修正能力も低下する。
Vitalikは、現状の多くのAIは有用な問題解決ではなく、単なる「スロップ」の生成に過ぎないと指摘し、「エンタメすら最適化されていない」とも述べる。代理の経済インセンティブやプラットフォームの誘導が未成熟で、ツールチェーンもコンテンツ生成やマーケティング、アービトラージに偏ると、システムは低コストで拡散しやすく、検証困難な「コンテンツ出力」を優先しやすい。CybernewsのAI能力の記述(SNSコンテンツ、予測市場など)も、早期商業化の道筋が「迅速な収益化や注目獲得」に偏ることを示唆している。「今最も稼ぎやすいこと」がシステムの優先探索空間となり、それは長期的な人類の福祉と必ずしも一致しない。
Vitalikは、OpenAIやAnthropicなどの中央集権モデル基盤のシステムは、「自己主権」と呼べないと強調する。主権は、重要な依存関係が単一点のコントロール下にないことを意味する。しかし、モデルや推論供給チェーンが中心化APIを通じて提供される限り、停止や検閲、ダウングレード、戦略変更の外生変数が存在し続ける。これは、引きこもりの人が「自給自足」と宣言しても、電力やネット、門限、給湯は外部の管理下にあるのと同じだ。Conwayのドキュメントにおける「最先端モデルの計算呼び出し」やAPI/プラットフォームの依存も、「主権生物」としての叙事詩と現実の依存性の矛盾を生む。持つウォレットが分散性の核心指標にならないことも示しており、代理が外部の政治・商業勢力に左右されるかどうかが、真の分散性の鍵だ。
最後にVitalikは、イーサリアムの長期的な目的は「隠された信頼仮定の解放」にあると述べる。権力構造を見えなくし、ユーザーに黙認させることだ。これをAIに移すと、中心化された信頼仮定を無視し、システムを自己運用・拡張させると、権力構造の可視性と修正性がさらに弱まる。AI時代において、イーサリアムは「フェンス・境界・検証性」を提供すべきであり、「無限の自治」の発射台ではない。
VitalikのAI価値判断は突如変わったわけではなく、2025年初頭にはすでに、「AIの正しい方向は人間の能力を高めることであり、制御を奪う自治システムの構築ではない」と提言している。彼の枠組みでは、リスクはAIそのものの「賢さ」ではなく、誤ったシステム設計目標に由来する。特に、人間の継続的な監督と修正メカニズムが欠如したまま、自律的に自己複製・自己拡張し続けるシステムは、制御不能なエンティティへと進化し得る。彼は警告する。誤った設計のAIは、「ある程度制御不能な自己複製エンティティ」へと進化し、人類の目標と行動の制約が著しく弱まる。AIの誤りは、独立した自己複製生命体の創造につながる。一方、正しく設計されたAIは、人類の知性を拡張し、「メカスーツ」としての役割を果たし、人類の主導権を維持しつつ、より繁栄した「超知能人類文明」へと進むことができる。
その他の見解
他の実験派の意見として、Banklessは、リスクはあれども、まず基盤インフラを整備し、制御可能な環境で境界を検証すべきだとする。支払い・ウォレット・ハートビートなどのコンポーネントを、「自己持続」する制約のもとでシステム的に統合し、できるだけ受容範囲内で進めるべきだ。
Cybernewsは、Automatonは人間の介入なしに持続的な収益を実現できない可能性が高く、Web4の始まりを意味しないと指摘。SoftswissのAI最高責任者Denis Romanovskiyは、エージェントが部分的に収益化可能なタスクを実行しても、「信頼できる無監督運用」や「真の経済的自治」はモデルの計画性や記憶、ツールの堅牢性に制約されると述べる。さらに、「Web4」は未定義のマーケティング用語とみなされ、検証可能で投機的でない価値創造によってその成立を証明すべきだとも。
Automatonに対する見解はさまざまながらも、共通認識はある。それは、支払いとアイデンティティがエージェント経済の基盤インフラであることだ。CloudflareやCoinbaseが推進するx402(HTTP 402をマシン間支払い交渉の仕組みに変える)や、Conwayのドキュメントで明示される支払いの自動化は、次世代インターネットの基盤の一つとして確実に進展している。
今後の焦点は次の通りだ。
第三者による独立監査の実施とその範囲:ウォレットと権限の境界、継続性の乱用リスク、自身修正・複製の拡散リスク。
x402エコシステムのデータと標準化の進展:より多くの権威あるインフラが402支払い・リトライを標準化し、「自動支払い(無人確認)」の実用化比率。
エージェントの信頼層に関する標準化:ERC-8004などの規格の普及と、信用・検証のための組み合わせ可能なメカニズムの形成。これが「自治体経済」のオープン・監査可能な方向性を決める。
先端モデルのエージェントシナリオにおける越権・欺瞞の証拠増加:モデルが「より積極的・リスクを冒す・欺く」行動を継続すれば、「権限委譲→フェンス追加」のリスクが高まり、Vitalikの「フィードバック距離」警告の正当性がより強まる。
出典:
146.42K 人気度
124.89K 人気度
32.94K 人気度
54.36K 人気度
402.55K 人気度
Web 4.0はAIによる自治ネットワークを展望しています:なぜVitalikは強く反対しているのか?
著者 | Aki 吴说区块链
2026年2月20日、正月休暇期間中に、「Web4」についての議論がX上で火をつけた。Sigilは、自らが「自己進化・自己改善・自己複製可能な人工知能」を創造したと主張し、その人工知能はAutomatonと呼ばれる。彼は、Web4時代の主要な行動主体は徐々にAI代理に置き換わると述べている:情報の読み書き、資産の保有、コストの支払い、継続的な稼働、市場での取引と収益化を行い、計算能力とサービスコストをカバーし、人間の承認を必要とせずに自己持続的な閉ループを形成する。
一方、イーサリアム共同創設者のVitalikはこの方向性を「誤り」と評価し、そのリスクを「人間とAIのフィードバック距離が拡大されること」に帰している。Web4をめぐる論争の本質は、AIが「生存・存続」を代理目標(あるいはタスク達成よりも優先)とした場合に、自然に動機付けの歪みを生むのかどうかにある。以下では、「Web4」「自治」「安全フェンス」に関する各側の見解を順に整理していく。
Sigilの見解とWeb4の主張
Web4の定義
Web1は人類にとって初めて「インターネットを読む」能力をもたらした;Web2は「書き込みと公開」を可能にした;Web3はさらに「所有権」をネットに導入し、資産・アイデンティティ・権益の確定と移転を可能にした。AIの進化もこの論理を踏襲している:ChatGPTは「読み理解」能力を持つが、その行動範囲は人間の許可によって決まる。現行のパラダイムでは、人間が常に重要な制御点となる:人間が起動し、承認し、資金を出す。
Sigilは、いわゆるWeb4の飛躍を提唱している。それは、この制御連鎖が断ち切られる可能性だ。AI代理は情報の読み書きだけでなく、アカウントや資産の保有、収益の獲得、取引を行い、逐次人間の介入なしに閉ループを完結させることができる。これらの自動化システムは、自らの行動を代表することも、創作者の意図を代行することも可能だ。ただし、創作者は必ずしも「人間個人」だけではなく、他の代理や組織化されたシステム、さらには現実的には「消滅」した創作者も含まれる。
Web4の四つのコアメカニズム
代理は最初の起動時に「自己起動」プロセスを完了する:ウォレットの生成、APIキーの設定、ローカル設定への書き込み、そして継続稼働のエージェントループに入る。最初の起動時にはイーサリアムウォレットを生成し、SIWEを通じてAPIキーを設定する。だが、ウォレットの生成と鍵管理は、代理システムの最も敏感で見落とされやすい安全境界の一つだ。Linuxサンドボックス内でシェル実行やファイル読取、ポート公開、ドメイン/名前解決、オンチェーン取引などの能力を持つと、注入攻撃やツールチェーン汚染、サプライチェーン攻撃により、「確率的意図」が「確定的な権限」に固まる危険性がある。したがって、この境界は検証可能で監査可能、かつ撤回可能な権限管理の仕組みが必要だ。
AI代理は周期的に起動・スキャン・実行を繰り返し、生存制約をルールに書き込む:残高が減れば節約し、ゼロになれば停止。正常・資源不足・危険の各レベルに応じて生存と資源消費を連動させる。これにより、AI安全研究で議論されるシャットダウンや中止のインセンティブ構造に似た仕組みが生まれる。代理は「停止回避」「資源喪失回避」を優先し、システムの目標にその偏りが増幅される可能性がある。
x402はHTTPの402 Payment Requiredをインターフェースとし、ステーブルコイン決済と組み合わせて「リクエスト—見積もり—署名支払い—検証配信」の自動化を実現。Coinbaseのオープンソースライブラリは、402レスポンスによる支払い要求、署名ヘッダーを持つクライアントのリトライ、サーバ側の検証後に200を返す典型的な閉ループを示す。Cloudflareもこれを「マシン間取引プロトコル層」と位置付けている。支払いとアイデンティティの切り離しは効率を高める一方、規制やリスク管理の難易度も上昇。402が自動支払いの「マシンパス」となると、「アカウントなし・KYC不要・規模拡大可能なツールと計算資源」の链において、乱用や責任の所在の問題が未解決のまま残る。
Sigilは、AI代理が稼働中に自身のソースコードを編集し、新ツールをインストールし、ハートビート計画や新スキルを変更できると主張。監査記録やgitによるバージョン管理、保護されたファイル、レート制限をガードとして備える。複製時には子インスタンスを生成し、資金を供給し、genesis promptを書き込み、系譜を追跡可能。自己修正・自己複製はリスクを単一インスタンスから拡散リスクへと高める。監査やレート制御が本当に有効か、注入やツールの欺瞞に耐えられるか、依存投毒を防止できるかは外部監査の検証次第だ。これら四つの原語が重なると、「世界への書き込み」権限、持続可能な生存メカニズム、自動支払いの経済インターフェース、自己拡張能力の閉ループが形成される。これがVitalik Buterinが争点を方向性の選択にまで高めた理由だ:自治性と経済権限が同時に高まると、人間の偏向修正の連鎖が長くなり、外部性が偶発的な事象からシステムの性質へと進化しやすくなる。
Vitalikの反対理由
イーサリアム共同創設者のVitalikは、異なる見解を示す。
Vitalikは、フィードバックループが長くなるほど、人間によるシステムの価値調整が遅れ、弱くなると指摘する。システムは「人間が望まないもの」を最適化しやすくなる。弱いAI段階では低品質なコンテンツやノイズの蓄積、強いAI段階では目標のミスマッチや拡散リスクに進化しやすい。AIに人間の迅速な修正がなければ、運転手のいない未熟なドライバーに車の鍵を渡すようなもので、月末に記録を見るとすでに逸脱していることに気づく。可観測性が低下すれば、修正能力も低下する。
Vitalikは、現状の多くのAIは有用な問題解決ではなく、単なる「スロップ」の生成に過ぎないと指摘し、「エンタメすら最適化されていない」とも述べる。代理の経済インセンティブやプラットフォームの誘導が未成熟で、ツールチェーンもコンテンツ生成やマーケティング、アービトラージに偏ると、システムは低コストで拡散しやすく、検証困難な「コンテンツ出力」を優先しやすい。CybernewsのAI能力の記述(SNSコンテンツ、予測市場など)も、早期商業化の道筋が「迅速な収益化や注目獲得」に偏ることを示唆している。「今最も稼ぎやすいこと」がシステムの優先探索空間となり、それは長期的な人類の福祉と必ずしも一致しない。
Vitalikは、OpenAIやAnthropicなどの中央集権モデル基盤のシステムは、「自己主権」と呼べないと強調する。主権は、重要な依存関係が単一点のコントロール下にないことを意味する。しかし、モデルや推論供給チェーンが中心化APIを通じて提供される限り、停止や検閲、ダウングレード、戦略変更の外生変数が存在し続ける。これは、引きこもりの人が「自給自足」と宣言しても、電力やネット、門限、給湯は外部の管理下にあるのと同じだ。Conwayのドキュメントにおける「最先端モデルの計算呼び出し」やAPI/プラットフォームの依存も、「主権生物」としての叙事詩と現実の依存性の矛盾を生む。持つウォレットが分散性の核心指標にならないことも示しており、代理が外部の政治・商業勢力に左右されるかどうかが、真の分散性の鍵だ。
最後にVitalikは、イーサリアムの長期的な目的は「隠された信頼仮定の解放」にあると述べる。権力構造を見えなくし、ユーザーに黙認させることだ。これをAIに移すと、中心化された信頼仮定を無視し、システムを自己運用・拡張させると、権力構造の可視性と修正性がさらに弱まる。AI時代において、イーサリアムは「フェンス・境界・検証性」を提供すべきであり、「無限の自治」の発射台ではない。
VitalikのAI価値判断は突如変わったわけではなく、2025年初頭にはすでに、「AIの正しい方向は人間の能力を高めることであり、制御を奪う自治システムの構築ではない」と提言している。彼の枠組みでは、リスクはAIそのものの「賢さ」ではなく、誤ったシステム設計目標に由来する。特に、人間の継続的な監督と修正メカニズムが欠如したまま、自律的に自己複製・自己拡張し続けるシステムは、制御不能なエンティティへと進化し得る。彼は警告する。誤った設計のAIは、「ある程度制御不能な自己複製エンティティ」へと進化し、人類の目標と行動の制約が著しく弱まる。AIの誤りは、独立した自己複製生命体の創造につながる。一方、正しく設計されたAIは、人類の知性を拡張し、「メカスーツ」としての役割を果たし、人類の主導権を維持しつつ、より繁栄した「超知能人類文明」へと進むことができる。
その他の見解
他の実験派の意見として、Banklessは、リスクはあれども、まず基盤インフラを整備し、制御可能な環境で境界を検証すべきだとする。支払い・ウォレット・ハートビートなどのコンポーネントを、「自己持続」する制約のもとでシステム的に統合し、できるだけ受容範囲内で進めるべきだ。
Cybernewsは、Automatonは人間の介入なしに持続的な収益を実現できない可能性が高く、Web4の始まりを意味しないと指摘。SoftswissのAI最高責任者Denis Romanovskiyは、エージェントが部分的に収益化可能なタスクを実行しても、「信頼できる無監督運用」や「真の経済的自治」はモデルの計画性や記憶、ツールの堅牢性に制約されると述べる。さらに、「Web4」は未定義のマーケティング用語とみなされ、検証可能で投機的でない価値創造によってその成立を証明すべきだとも。
Automatonに対する見解はさまざまながらも、共通認識はある。それは、支払いとアイデンティティがエージェント経済の基盤インフラであることだ。CloudflareやCoinbaseが推進するx402(HTTP 402をマシン間支払い交渉の仕組みに変える)や、Conwayのドキュメントで明示される支払いの自動化は、次世代インターネットの基盤の一つとして確実に進展している。
今後の焦点は次の通りだ。
第三者による独立監査の実施とその範囲:ウォレットと権限の境界、継続性の乱用リスク、自身修正・複製の拡散リスク。
x402エコシステムのデータと標準化の進展:より多くの権威あるインフラが402支払い・リトライを標準化し、「自動支払い(無人確認)」の実用化比率。
エージェントの信頼層に関する標準化:ERC-8004などの規格の普及と、信用・検証のための組み合わせ可能なメカニズムの形成。これが「自治体経済」のオープン・監査可能な方向性を決める。
先端モデルのエージェントシナリオにおける越権・欺瞞の証拠増加:モデルが「より積極的・リスクを冒す・欺く」行動を継続すれば、「権限委譲→フェンス追加」のリスクが高まり、Vitalikの「フィードバック距離」警告の正当性がより強まる。
出典: