著者: Wuyue、オタクweb3
ブロックチェーン技術の進化がますます速まる中で、パフォーマンスの最適化は重要な課題となっています。ETHのロードマップは既に非常に明確であり、Rollupを中心にしています。一方で、EVMの直列処理トランザクションの特性は制約となり、将来の高並列計算シナリオには対応できません。
以前の記事『Reddioを使って並行EVMの最適化の道を見る』では、Reddioの並行EVMの設計アイデアについて簡単に説明しましたが、今日の記事では、その技術的なアプローチやAIとの組み合わせのシナリオについてより詳しく解説します。
Reddioの技術的な解決策はCuEVMを使用しています。これは、GPUを使用してEVMの実行効率を向上させるプロジェクトです。まず、CuEVMから話を始めましょう。
CuEVMは、EVMをGPUで高速化するプロジェクトで、ETHのEVMのオペコードをCUDAカーネルに変換して、NVIDIA GPUで並列実行します。GPUの並列計算能力を利用して、EVM命令の実行効率を向上させます。おそらくNカードのユーザーは、よくCUDAという言葉を聞くでしょう。
**Compute Unified Device Architecture,これは実際にはNVIDIAが開発した並列計算プラットフォームおよびプログラミングモデルです。これにより、開発者はGPUの並列計算能力を利用して一般的な計算(例:Crypto中のマイニング、ZK演算など)を行うことができます。**グラフィックス処理に限定されません。
CUDAは、オープンな並列計算フレームワークであり、本質的にはC/C++言語の拡張です。C/C++の低レベルプログラマであれば、すばやく習得することができます。CUDAでは、Kernel(カーネル関数)という重要な概念もあります。これもC++関数の一種です。
しかし、通常のC++関数が一度だけ実行されるのとは異なり、これらのカーネル関数は起動構文<<…>>が呼び出されると、N個の異なるCUDAスレッドによってN回並列に実行されます。
CUDAの各スレッドには独自のスレッドIDが割り当てられ、スレッド階層構造が採用され、スレッドがブロックとグリッドに割り当てられ、大量の並列スレッドを管理しやすくなっています。NVIDIAのnvccコンパイラを使用することで、CUDAコードをGPUで実行可能なプログラムにコンパイルできます。
CUDAの一連の基本的な概念を理解した後、CuEVMのワークフローを見ることができます。
CuEVMのメインエントリポイントはrun_interpreterで、ここから並列処理するトランザクションをjsonファイルの形式で入力します。プロジェクトのテストケースでは、入力はすべて標準のEVMコンテンツであり、開発者が別途処理や翻訳をする必要はありません。
run_interpreter()で、CUDAで定義された<<…>>構文を使用して、kernel_evm()カーネル関数が呼び出されていることがわかります。前述のように、カーネル関数はGPUで並列に実行されます。
kernel_evm()メソッドでは、evm->run()が呼び出されます。ここで、多くの分岐判断が行われ、EVMオペコードがCUDAオペレーションに変換されていることがわかります。
EVM の付加オペコード OP_ADD を例にとると、ADD が cgbn_add に変換されることがわかります。 CGBN(Cooperative Groups Big Numbers)は、CUDAの高性能多精度整数演算ライブラリです。
これらの2つのステップは、EVMオペコードをCUDAオペレーションに変換しました。CuEVMは、実質的にすべてのEVMオペレーションをCUDA上で実装するものと言えます。最後に、run_interpreter()メソッドは計算結果、つまりワールドステートおよびその他の情報を返します。
ここまで、CuEVMの基本的な動作ロジックが説明されました。
CuEVMはトランザクションの並行処理能力を持っていますが、CuEVMの計画は、Fuzzingテストを行うためのものです(または主なユースケースとして表示されます): Fuzzingは、プログラムに大量の無効な、予期しない、またはランダムなデータを入力し、プログラムの応答を観察することで、潜在的なエラーやセキュリティの問題を特定する自動化されたソフトウェアテスト技術です。
Fuzzingは並列処理に非常に適していることがわかります。しかし、CuEVMはトランザクションの競合などの問題を処理していません。それはCuEVMが関心を持っていない問題です。CuEVMを統合する場合は、競合するトランザクションを処理する必要があります。
以前の記事「Reddioが採用する並列EVMの最適化の道」で、Reddioが使用する競合処理メカニズムについて紹介しましたので、ここでは繰り返しません。Reddioは取引を競合処理メカニズムで並べ替えた後、CuEVMに送信することができます。つまり、Reddio L2の取引の順序付けメカニズムは競合処理+CuEVMの並列実行の2つの部分に分けることができます。
先に述べたように、並列EVMとL2はReddioの出発点にすぎず、将来的なロードマップではAIナラティブと明確に結びつけられる予定です。GPUを使用した高速並列トランザクションを行うReddioは、多くの特徴においてAI計算に適しています。
Rollupのアーキテクチャ設計では、ネットワーク全体でソーターだけでなく、スーパーバイザーやフォワーダーのような役割もあり、取引の検証や収集を行います。彼らは本質的にソーターと同じクライアントを使用しており、職務が異なるだけです。従来のRollupでは、これらのサブロールの機能と権限は非常に限られており、Arbitrumのwatcherのような役割は基本的に受動的であり、防御的であり、公益的であり、収益モデルも疑問です。
Reddioは分散化ソーターのアーキテクチャを採用し、マイナーはノードとしてGPUを提供します。Reddioネットワーク全体は、単なるL2からL2+AIの総合ネットワークに進化することができ、いくつかのAI+ブロックチェーンユースケースをうまく実現できます:
ブロックチェーン技術の進化に伴い、ブロックチェーンネットワーク内でのAIエージェントの応用潜在能力は非常に大きいです。金融取引を実行するAIエージェントを例に取ると、これらのスマートエージェントは複雑な意思決定と取引操作を自律的に行うことができ、ハイフリークエンシーな条件下で迅速に対応することもできます。しかし、このような密集した操作を処理する際、L1は巨大な取引負荷を担うことは基本的に不可能です。
ReddioはL2プロジェクトとして、GPUアクセラレーションを通じて取引の並列処理能力を大幅に向上させることができます。L1に比べ、取引の並列実行をサポートするL2はより高いスループットを持ち、大量のAIエージェントの高頻度取引リクエストを効率的に処理し、ネットワークのスムーズな運用を確保します。
高頻取引では、AIエージェントは取引速度と応答時間に非常に厳しい要求を持っています。L2は取引の検証と実行時間を短縮し、レイテンシーを著しくドロップします。これはミリ秒レベルの応答が必要なAIエージェントにとって重要です。大量の取引をL2に移行することで、メインネットの混雑問題も効果的に緩和されます。これにより、AIエージェントの操作がより経済的かつ効率的になります。
Reddioや他のL2プロジェクトの成熟に伴い、AIエージェントはブロックオンチェーンにおいてより重要な役割を果たし、分散型金融やその他のブロックチェーンアプリケーションとAIの組み合わせによるイノベーションを推進します。
Reddioは将来的に分散ソーターのアーキテクチャを採用し、マイナーはGPUコンピューティングパワーに基づいてソート権利を決定します。全体的なネットワーク参加者のGPUのパフォーマンスは競争に従って徐々に向上するため、AIトレーニングに使用できるレベルに達する可能性があります。
分散化のGPUコンピューティングパワー市場を構築し、AIトレーニングと推論のためのより低コストのコンピューティングパワーリソースを提供します。コンピューティングパワーは、個人のコンピュータからデータセンタークラスタまで、さまざまなレベルのGPUコンピューティングパワーがこの市場に参加し、自身の余剰コンピューティングパワーを貢献し、収益を得ることができます。このモデルは、AI計算のコストを低減し、より多くの人々がAIモデルの開発と応用に参加することを可能にします。
分散化コンピューティングパワー市場のユースケースでは、ソーターはAIの直接的な計算に主に責任を負っていない場合があります。その主な機能は、トランザクションの処理とAIコンピューティングパワーのネットワーク全体での調整です。コンピューティングパワーとタスク割り当てに関しては、2つのモードがあります:
我々は、L2 + AIの構造では、コンピューティングパワーマーケットが非常に柔軟であり、コンピューティングパワーを両方向から集約し、リソースの利用率を最大限に向上させることができることがわかります。
現在、オープンソースモデルの成熟度は、多様な要求を満たすのに十分です。AI推論サービスの標準化に伴い、コンピューティングパワーをブロックチェーンに結びつけて自動価格設定を実現する方法を探索することが可能になりました。ただし、これには多くの技術的な課題を克服する必要があります。
しかし、Reddioのアーキテクチャでは、これらの問題は比較的簡単に解決できます。
全体的に見ると、Layer2ソリューション、並列EVM、およびAIテクノロジーというこれらの領域は互いに関連がないように見えますが、ReddioはGPUの計算特性を十分に活用し、これらの大きな革新領域を巧みに組み合わせています。
GPUの並列計算特性を利用することで、ReddioはLayer2上での取引速度と効率を向上させ、ETH坊のパフォーマンスを向上させました。AI技術をブロックチェーンに組み込むことは、新しい試みであり、広範な可能性を秘めています。AIの導入により、オンチェーン操作に対してスマートな分析と意思決定のサポートを提供し、よりスマートでダイナミックなブロックチェーンアプリケーションを実現することができます。このような異分野の統合は、業界全体の発展に新たな道と機会を切り拓いています。
ただし、注意する必要がありますが、この分野はまだ初期段階にあり、多くの研究と探求が必要です。技術の進化と最適化、市場の先駆者の想像力と行動が、この革新を成熟させるための重要な要因となるでしょう。Reddioはこの交差点で重要かつ大胆な一歩を踏み出しましたが、今後、統合領域でさらなる突破と驚きを見ることを期待しています。
2.85K 人気度
25.22K 人気度
3.17K 人気度
3.62K 人気度
79.54K 人気度
Reddioテクノロジーの概要:並列EVMからAIまでのナラティブ概要
著者: Wuyue、オタクweb3
ブロックチェーン技術の進化がますます速まる中で、パフォーマンスの最適化は重要な課題となっています。ETHのロードマップは既に非常に明確であり、Rollupを中心にしています。一方で、EVMの直列処理トランザクションの特性は制約となり、将来の高並列計算シナリオには対応できません。
以前の記事『Reddioを使って並行EVMの最適化の道を見る』では、Reddioの並行EVMの設計アイデアについて簡単に説明しましたが、今日の記事では、その技術的なアプローチやAIとの組み合わせのシナリオについてより詳しく解説します。
Reddioの技術的な解決策はCuEVMを使用しています。これは、GPUを使用してEVMの実行効率を向上させるプロジェクトです。まず、CuEVMから話を始めましょう。
CUDAの概要
CuEVMは、EVMをGPUで高速化するプロジェクトで、ETHのEVMのオペコードをCUDAカーネルに変換して、NVIDIA GPUで並列実行します。GPUの並列計算能力を利用して、EVM命令の実行効率を向上させます。おそらくNカードのユーザーは、よくCUDAという言葉を聞くでしょう。
**Compute Unified Device Architecture,これは実際にはNVIDIAが開発した並列計算プラットフォームおよびプログラミングモデルです。これにより、開発者はGPUの並列計算能力を利用して一般的な計算(例:Crypto中のマイニング、ZK演算など)を行うことができます。**グラフィックス処理に限定されません。
CUDAは、オープンな並列計算フレームワークであり、本質的にはC/C++言語の拡張です。C/C++の低レベルプログラマであれば、すばやく習得することができます。CUDAでは、Kernel(カーネル関数)という重要な概念もあります。これもC++関数の一種です。
しかし、通常のC++関数が一度だけ実行されるのとは異なり、これらのカーネル関数は起動構文<<…>>が呼び出されると、N個の異なるCUDAスレッドによってN回並列に実行されます。
CUDAの各スレッドには独自のスレッドIDが割り当てられ、スレッド階層構造が採用され、スレッドがブロックとグリッドに割り当てられ、大量の並列スレッドを管理しやすくなっています。NVIDIAのnvccコンパイラを使用することで、CUDAコードをGPUで実行可能なプログラムにコンパイルできます。
CuEVMの基本ワークフロー
CUDAの一連の基本的な概念を理解した後、CuEVMのワークフローを見ることができます。
CuEVMのメインエントリポイントはrun_interpreterで、ここから並列処理するトランザクションをjsonファイルの形式で入力します。プロジェクトのテストケースでは、入力はすべて標準のEVMコンテンツであり、開発者が別途処理や翻訳をする必要はありません。
run_interpreter()で、CUDAで定義された<<…>>構文を使用して、kernel_evm()カーネル関数が呼び出されていることがわかります。前述のように、カーネル関数はGPUで並列に実行されます。
kernel_evm()メソッドでは、evm->run()が呼び出されます。ここで、多くの分岐判断が行われ、EVMオペコードがCUDAオペレーションに変換されていることがわかります。
EVM の付加オペコード OP_ADD を例にとると、ADD が cgbn_add に変換されることがわかります。 CGBN(Cooperative Groups Big Numbers)は、CUDAの高性能多精度整数演算ライブラリです。
これらの2つのステップは、EVMオペコードをCUDAオペレーションに変換しました。CuEVMは、実質的にすべてのEVMオペレーションをCUDA上で実装するものと言えます。最後に、run_interpreter()メソッドは計算結果、つまりワールドステートおよびその他の情報を返します。
ここまで、CuEVMの基本的な動作ロジックが説明されました。
CuEVMはトランザクションの並行処理能力を持っていますが、CuEVMの計画は、Fuzzingテストを行うためのものです(または主なユースケースとして表示されます): Fuzzingは、プログラムに大量の無効な、予期しない、またはランダムなデータを入力し、プログラムの応答を観察することで、潜在的なエラーやセキュリティの問題を特定する自動化されたソフトウェアテスト技術です。
Fuzzingは並列処理に非常に適していることがわかります。しかし、CuEVMはトランザクションの競合などの問題を処理していません。それはCuEVMが関心を持っていない問題です。CuEVMを統合する場合は、競合するトランザクションを処理する必要があります。
以前の記事「Reddioが採用する並列EVMの最適化の道」で、Reddioが使用する競合処理メカニズムについて紹介しましたので、ここでは繰り返しません。Reddioは取引を競合処理メカニズムで並べ替えた後、CuEVMに送信することができます。つまり、Reddio L2の取引の順序付けメカニズムは競合処理+CuEVMの並列実行の2つの部分に分けることができます。
レイヤ 2、並列 EVM、AI の 3 方向交差
先に述べたように、並列EVMとL2はReddioの出発点にすぎず、将来的なロードマップではAIナラティブと明確に結びつけられる予定です。GPUを使用した高速並列トランザクションを行うReddioは、多くの特徴においてAI計算に適しています。
AIとL2はどのように組み合わせられるのか?
Rollupのアーキテクチャ設計では、ネットワーク全体でソーターだけでなく、スーパーバイザーやフォワーダーのような役割もあり、取引の検証や収集を行います。彼らは本質的にソーターと同じクライアントを使用しており、職務が異なるだけです。従来のRollupでは、これらのサブロールの機能と権限は非常に限られており、Arbitrumのwatcherのような役割は基本的に受動的であり、防御的であり、公益的であり、収益モデルも疑問です。
Reddioは分散化ソーターのアーキテクチャを採用し、マイナーはノードとしてGPUを提供します。Reddioネットワーク全体は、単なるL2からL2+AIの総合ネットワークに進化することができ、いくつかのAI+ブロックチェーンユースケースをうまく実現できます:
AI Agentのインタラクティブベースネットワーク
ブロックチェーン技術の進化に伴い、ブロックチェーンネットワーク内でのAIエージェントの応用潜在能力は非常に大きいです。金融取引を実行するAIエージェントを例に取ると、これらのスマートエージェントは複雑な意思決定と取引操作を自律的に行うことができ、ハイフリークエンシーな条件下で迅速に対応することもできます。しかし、このような密集した操作を処理する際、L1は巨大な取引負荷を担うことは基本的に不可能です。
ReddioはL2プロジェクトとして、GPUアクセラレーションを通じて取引の並列処理能力を大幅に向上させることができます。L1に比べ、取引の並列実行をサポートするL2はより高いスループットを持ち、大量のAIエージェントの高頻度取引リクエストを効率的に処理し、ネットワークのスムーズな運用を確保します。
高頻取引では、AIエージェントは取引速度と応答時間に非常に厳しい要求を持っています。L2は取引の検証と実行時間を短縮し、レイテンシーを著しくドロップします。これはミリ秒レベルの応答が必要なAIエージェントにとって重要です。大量の取引をL2に移行することで、メインネットの混雑問題も効果的に緩和されます。これにより、AIエージェントの操作がより経済的かつ効率的になります。
Reddioや他のL2プロジェクトの成熟に伴い、AIエージェントはブロックオンチェーンにおいてより重要な役割を果たし、分散型金融やその他のブロックチェーンアプリケーションとAIの組み合わせによるイノベーションを推進します。
分散化コンピューティングパワー市場
Reddioは将来的に分散ソーターのアーキテクチャを採用し、マイナーはGPUコンピューティングパワーに基づいてソート権利を決定します。全体的なネットワーク参加者のGPUのパフォーマンスは競争に従って徐々に向上するため、AIトレーニングに使用できるレベルに達する可能性があります。
分散化のGPUコンピューティングパワー市場を構築し、AIトレーニングと推論のためのより低コストのコンピューティングパワーリソースを提供します。コンピューティングパワーは、個人のコンピュータからデータセンタークラスタまで、さまざまなレベルのGPUコンピューティングパワーがこの市場に参加し、自身の余剰コンピューティングパワーを貢献し、収益を得ることができます。このモデルは、AI計算のコストを低減し、より多くの人々がAIモデルの開発と応用に参加することを可能にします。
分散化コンピューティングパワー市場のユースケースでは、ソーターはAIの直接的な計算に主に責任を負っていない場合があります。その主な機能は、トランザクションの処理とAIコンピューティングパワーのネットワーク全体での調整です。コンピューティングパワーとタスク割り当てに関しては、2つのモードがあります:
我々は、L2 + AIの構造では、コンピューティングパワーマーケットが非常に柔軟であり、コンピューティングパワーを両方向から集約し、リソースの利用率を最大限に向上させることができることがわかります。
オンチェーンAI推論
現在、オープンソースモデルの成熟度は、多様な要求を満たすのに十分です。AI推論サービスの標準化に伴い、コンピューティングパワーをブロックチェーンに結びつけて自動価格設定を実現する方法を探索することが可能になりました。ただし、これには多くの技術的な課題を克服する必要があります。
しかし、Reddioのアーキテクチャでは、これらの問題は比較的簡単に解決できます。
まとめ
全体的に見ると、Layer2ソリューション、並列EVM、およびAIテクノロジーというこれらの領域は互いに関連がないように見えますが、ReddioはGPUの計算特性を十分に活用し、これらの大きな革新領域を巧みに組み合わせています。
GPUの並列計算特性を利用することで、ReddioはLayer2上での取引速度と効率を向上させ、ETH坊のパフォーマンスを向上させました。AI技術をブロックチェーンに組み込むことは、新しい試みであり、広範な可能性を秘めています。AIの導入により、オンチェーン操作に対してスマートな分析と意思決定のサポートを提供し、よりスマートでダイナミックなブロックチェーンアプリケーションを実現することができます。このような異分野の統合は、業界全体の発展に新たな道と機会を切り拓いています。
ただし、注意する必要がありますが、この分野はまだ初期段階にあり、多くの研究と探求が必要です。技術の進化と最適化、市場の先駆者の想像力と行動が、この革新を成熟させるための重要な要因となるでしょう。Reddioはこの交差点で重要かつ大胆な一歩を踏み出しましたが、今後、統合領域でさらなる突破と驚きを見ることを期待しています。