Dalam perkembangan teknologi Blokchain yang semakin cepat saat ini, optimisasi kinerja telah menjadi isu kunci. Ethereum (ETH) telah memiliki roadmap yang jelas dengan fokus pada Rollup, sementara karakteristik pengolahan transaksi EVM secara serial menjadi pembatas yang tidak dapat memenuhi kebutuhan komputasi tingkat tinggi di masa depan.
Dalam artikel sebelumnya - ‘Melihat Jalur Optimalisasi EVM Paralel dari Reddio’, kami telah memberikan gambaran singkat tentang desain EVM paralel Reddio. Namun, dalam artikel hari ini, kami akan memberikan pemahaman yang lebih mendalam tentang rencana teknisnya, serta kombinasi scenarionya dengan kecerdasan buatan (AI).
Karena solusi teknis Reddio menggunakan CuEVM, yang merupakan proyek untuk meningkatkan efisiensi eksekusi EVM dengan menggunakan GPU, mari kita mulai dengan CuEVM terlebih dahulu.
Gambaran Umum CUDA
CuEVM adalah proyek akselerasi GPU untuk EVM yang mengonversi opcode ETH ke CUDA Kernels untuk dieksekusi secara paralel pada GPU NVIDIA. Dengan kemampuan komputasi paralel GPU, ini meningkatkan efisiensi eksekusi instruksi EVM. Pengguna kartu grafis NVIDIA mungkin sering mendengar kata CUDA ini.
**Compute Unified Device Architecture, ini sebenarnya adalah platform komputasi paralel dan model pemrograman yang dikembangkan oleh NVIDIA. Ini memungkinkan pengembang menggunakan kemampuan komputasi paralel GPU untuk komputasi umum (seperti Penambangan dalam Crypto, operasi ZK, dll), tidak terbatas pada pemrosesan grafis.
Sebagai kerangka komputasi paralel yang terbuka, CUDA pada dasarnya adalah ekstensi dari bahasa C/C++, sehingga dapat diakses dengan cepat oleh programmer tingkat bawah yang menguasai C/C++. Salah satu konsep penting dalam CUDA adalah Kernel (fungsi inti), yang juga merupakan jenis fungsi dalam C++.
Namun berbeda dengan fungsi C++ konvensional yang hanya dieksekusi sekali, fungsi inti ini dieksekusi secara paralel oleh N thread CUDA yang berbeda sebanyak N kali saat dipanggil dengan sintaks <<<…>>>.
Setiap thread CUDA diberi ID thread independen, dan menggunakan struktur hierarki thread, mengalokasikan thread ke blok dan grid untuk mengelola sejumlah besar thread paralel. Dengan kompilator nvcc NVIDIA, kita dapat mengkompilasi kode CUDA menjadi program yang dapat dijalankan di GPU.
Alur Kerja Dasar CuEVM
Setelah memahami serangkaian konsep dasar CUDA, kita dapat melihat alur kerja CuEVM.
Pintu masuk utama CuEVM adalah run_interpreter, di sini transaksi yang akan diproses secara paralel dimasukkan dalam bentuk file json. Dari contoh kasus proyek, dapat dilihat bahwa yang dimasukkan adalah konten EVM standar, tidak perlu pengolahan atau terjemahan tambahan oleh pengembang.
Dalam run_interpreter(), Anda dapat melihat bahwa itu menggunakan sintaks <<…>> yang didefinisikan oleh CUDA untuk memanggil fungsi inti kernel_evm(). Kami telah menyebutkan sebelumnya, fungsi inti ini akan dipanggil secara paralel di GPU.
Dalam metode kernel_evm(), evm->run() dipanggil, dan kita dapat melihat bahwa ada banyak penilaian cabang untuk mengubah opcode EVM menjadi operasi CUDA.
Sebagai contoh, kita dapat melihat bahwa opcode penambahan OP_ADD dalam EVM diterjemahkan menjadi cgbn_add. CGBN (Cooperative Groups Big Numbers) adalah pustaka operasi aritmatika bilangan bulat multi-precisi yang berkinerja tinggi pada CUDA.
Dua langkah ini mengubah kode operasi EVM menjadi operasi CUDA. Dapat dikatakan bahwa CuEVM juga merupakan implementasi semua operasi EVM di atas CUDA. Akhirnya, metode run_interpreter() mengembalikan hasil operasi, yaitu status dunia dan informasi lainnya.
Pada titik ini, logika dasar operasi CuEVM telah selesai dijelaskan.
CuEVM memiliki kemampuan untuk memproses transaksi secara paralel, namun tujuan utama dari proyek CuEVM (atau kasus penggunaan utama yang ditunjukkan) adalah untuk melakukan pengujian Fuzzing: Fuzzing adalah teknik pengujian perangkat lunak otomatis yang menggunakan input data yang tidak valid, tak terduga, atau acak untuk mengamati respons program dan mengidentifikasi masalah kesalahan potensial dan keamanan.
Kita dapat melihat bahwa Fuzzing sangat cocok untuk diproses secara paralel. Namun, CuEVM tidak menangani masalah konflik transaksi dan sejenisnya, itu bukan masalah yang dikhawatirkan. Jika ingin mengintegrasikan CuEVM, maka perlu menangani transaksi konflik.
Kami telah mengenalkan mekanisme penanganan konflik yang digunakan oleh Reddio dalam artikel sebelumnya, ‘Perjalanan Optimisasi EVM Paralel dari Reddio’. Di sini, kami tidak akan mengulanginya. Setelah Reddio mengurutkan transaksi dengan mekanisme penanganan konflik, maka transaksi tersebut akan dikirim ke CuEVM. Dengan kata lain, mekanisme pengurutan transaksi L2 Reddio terdiri dari penanganan konflik + eksekusi paralel CuEVM.
Layer2, Parallel EVM, Tiga Persimpangan AI
Dalam pembicaraan sebelumnya, penggunaan paralel EVM dan L2 hanyalah awal dari Reddio, sementara rencana masa depannya akan secara jelas mengintegrasikan narasi AI. Reddio, yang menggunakan GPU untuk transaksi paralel yang cepat, secara alami cocok untuk komputasi AI dalam banyak aspek khusus:
Kemampuan pemrosesan paralel GPU yang kuat cocok untuk menjalankan operasi konvolusi dalam pembelajaran Kedalaman, yang pada dasarnya adalah perkalian matriks dalam skala besar, dan GPU dioptimalkan khusus untuk tugas-tugas semacam ini.
Struktur hierarki thread GPU dapat sesuai dengan struktur data yang berbeda dalam perhitungan AI, meningkatkan efisiensi komputasi melalui over-alokasi thread dan unit eksekusi Warp, serta menyembunyikan latensi memori.
Kekuatan komputasi adalah indikator kunci untuk mengukur kinerja komputasi AI. GPU meningkatkan kinerja perkalian matriks dalam komputasi AI dengan mengoptimalkan kekuatan komputasi, seperti mengenalkan Tensor Core, sehingga tercapai keseimbangan efektif antara komputasi dan transfer data.
Jadi bagaimana sebenarnya AI dan L2 digabungkan?
Kami tahu dalam desain arsitektur Rollup, dalam jaringan keseluruhan sebenarnya bukan hanya sorter, tetapi juga beberapa peran seperti pengawas dan pengirim, yang digunakan untuk memvalidasi atau mengumpulkan transaksi, mereka pada dasarnya menggunakan klien yang sama dengan sorter, hanya memiliki fungsi yang berbeda. Di Rollup tradisional, peran-peran sekunder ini memiliki fungsi dan izin yang sangat terbatas, seperti peran watcher dalam Arbitrum, yang pada dasarnya pasif dan defensif serta mungkin diragukan model keuntungannya.
Reddio akan menggunakan arsitektur Desentralisasi sorter, Penambang menyediakan GPU sebagai Node. ** Seluruh jaringan Reddio dapat berkembang dari L2 biasa menjadi jaringan komprehensif L2+AI, yang dapat dengan baik mengimplementasikan beberapa kasus penggunaan AI+Blokchain: **
Jaringan Dasar Interaksi Agen AI
Dengan evolusi terus-menerus dari teknologi Blockchain, potensi aplikasi AI Agent di jaringan Blockchain sangat besar. Sebagai contoh, kita bisa melihat AI Agent yang melakukan transaksi keuangan, agen pintar ini mampu membuat keputusan kompleks secara mandiri dan melaksanakan operasi perdagangan, bahkan mampu bereaksi dengan cepat dalam kondisi frekuensi tinggi. Namun, L1 hampir tidak mungkin untuk menangani beban transaksi besar ketika melakukan operasi yang padat seperti ini.
Sebagai proyek L2, Reddio dapat meningkatkan kemampuan pemrosesan transaksi secara paralel melalui akselerasi GPU. Dibandingkan dengan L1, L2 yang mendukung eksekusi transaksi paralel memiliki throughput yang lebih tinggi, sehingga dapat efisien mengelola permintaan transaksi berfrekuensi tinggi dari banyak AI Agent dan memastikan kelancaran jaringan.
Dalam perdagangan frekuensi tinggi, AI Agents memiliki persyaratan yang sangat ketat terhadap kecepatan transaksi dan waktu respons. L2 mengurangi waktu verifikasi dan eksekusi transaksi, sehingga secara signifikan mengurangi latensi. Hal ini sangat penting bagi AI Agent yang membutuhkan respons dalam hitungan milidetik. Dengan memigrasikan banyak transaksi ke L2, juga efektif mengurangi masalah kemacetan di Mainnet. Ini membuat operasi AI Agents menjadi lebih ekonomis dan efisien.
Dengan kedewasaan proyek L2 seperti Reddio, AI Agent akan memainkan peran yang lebih penting dalam Blok-on-chain, mendorong inovasi dalam kombinasi Keuangan Desentralisasi dan aplikasi lain dari Blok dengan kecerdasan buatan.
DesentralisasiDaya Komputasi市场
Reddio di masa depan akan menggunakan arsitektur Desentralisasi sorter, Penambang menggunakan Daya Komputasi GPU untuk menentukan hak pengurutan, kinerja GPU peserta dalam jaringan secara keseluruhan akan meningkat seiring dengan persaingan, bahkan bisa mencapai tingkat yang digunakan untuk pelatihan AI.
Membangun pasar Daya Komputasi GPU Desentralisasi untuk menyediakan sumber Daya Komputasi yang lebih murah bagi pelatihan dan inferensi kecerdasan buatan (AI). Daya Komputasi GPU dari berbagai tingkatan, mulai dari komputer pribadi hingga klaster ruang server, dapat bergabung dalam pasar ini untuk menyumbangkan Daya Komputasi yang tidak terpakai dan mendapatkan penghasilan. Model ini dapat menurunkan biaya komputasi AI dan melibatkan lebih banyak orang dalam pengembangan dan aplikasi model AI.
Dalam kasus penggunaan DesentralisasiDaya Komputasi, sorter mungkin tidak sepenuhnya bertanggung jawab atas komputasi AI secara langsung, fungsinya utama adalah untuk memproses transaksi dan mengkoordinasikan AIDaya Komputasi di seluruh jaringan. Sementara mengenai Daya Komputasi dan alokasi tugas, ada dua mode di dalamnya:
Distribusi terpusat dari atas ke bawah. Karena ada sorter, sorter dapat mendistribusikan permintaan Daya Komputasi yang diterima ke Node yang memenuhi persyaratan dan memiliki reputasi baik. Meskipun metode distribusi ini secara teoritis memiliki masalah sentralisasi dan ketidakadilan, namun secara nyata, keunggulan efisiensinya jauh lebih besar daripada kerugiannya, dan dalam jangka panjang, sorter harus memenuhi integritas seluruh jaringan untuk dapat berkembang, yaitu adanya pembatasan yang tersirat namun langsung untuk memastikan sorter tidak memiliki bias yang terlalu serius.
Pemilihan tugas mandiri dari bawah ke atas. Pengguna juga dapat mengirim permintaan komputasi AI ke Node pihak ketiga, yang jelas lebih efisien daripada mengirim langsung ke sorter dalam bidang aplikasi AI tertentu, dan juga dapat mencegah pemeriksaan dan kecenderungan sorter. Setelah komputasi selesai, Node tersebut akan menyinkronkan hasil komputasi ke sorter dan memasukkannya ke dalam blockchain.
Dalam arsitektur L2 + AI, pasar Daya Komputasi memiliki fleksibilitas yang sangat tinggi, dapat mengumpulkan Daya Komputasi dari dua arah untuk meningkatkan efisiensi sumber daya sebanyak mungkin.
on-chain AI Inference
Saat ini, kematangan model Sumber Terbuka sudah cukup untuk memenuhi berbagai kebutuhan. Dengan standarisasi layanan inferensi AI, mengeksplorasi bagaimana mengaitkan Daya Komputasi ke blockchain untuk mencapai penentuan harga otomatis menjadi mungkin. Namun, ini memerlukan penyelesaian beberapa tantangan teknis:
Distribusi dan Pencatatan Permintaan Efisien: Inferensi model besar membutuhkan latensi yang tinggi, sehingga mekanisme distribusi permintaan yang efisien sangat krusial. Meskipun volume data permintaan dan respons besar serta sensitif secara privat, tidak cocok untuk dipublikasikan di Blok-on-chain, namun harus ditemukan titik keseimbangan antara pencatatan dan verifikasi - misalnya, melalui penyimpanan hash.
Verifikasi Output Daya Komputasi Node: Apakah Node benar-benar menyelesaikan tugas komputasi yang ditetapkan? Misalnya, apakah Node melaporkan hasil komputasi dengan model kecil sebagai pengganti model besar.
Inferensi Smart Contract: Menggabungkan model AI dengan Smart Contract untuk komputasi dalam banyak skenario adalah suatu keharusan. Karena inferensi AI memiliki ketidakpastian, tidak mungkin digunakan dalam semua aspek on-chain, sehingga logika AI dApp di masa depan kemungkinan besar akan berada sebagian di off-chain dan sebagian lainnya di kontrak on-chain, kontrak on-chain membatasi validitas dan keabsahan input yang diberikan oleh off-chain. Di ekosistem ETH, menggabungkan dengan Smart Contract harus menghadapi efisiensi serialisasi yang rendah dari EVM.
Namun dalam arsitektur Reddio, semua ini relatif mudah diatasi:
Pemilah mengirimkan permintaan secara efisien, jauh lebih efisien daripada L1, dan bisa dianggap setara dengan efisiensi Web2. Sedangkan lokasi dan metode penyimpanan data dapat diatasi dengan berbagai solusi DA yang murah.
Hasil komputasi AI dapat diverifikasi kebenaran dan kebaikan nya oleh ZKP. Fitur dari ZKP adalah verifikasi yang cepat, namun pembuatan bukti lambat. Pembuatan ZKP juga dapat dipercepat menggunakan GPU atau TEE.
Garis utama paralel EVM Solidty → CUDA → GPU memang dasar dari Reddio. Jadi, pada dasarnya ini adalah masalah paling mudah untuk Reddio. Saat ini, Reddio bekerja sama dengan eliza AiI6z untuk memasukkan modulnya ke dalam Reddio, ini adalah arah yang sangat layak untuk dieksplorasi.
Ringkasan
Secara keseluruhan, solusi Layer2, EVM paralel, dan teknologi AI, meskipun terlihat tidak berhubungan satu sama lain, Reddio berhasil menggabungkannya secara organik dengan memanfaatkan fitur komputasi GPU secara efektif.
Dengan memanfaatkan sifat komputasi paralel GPU, Reddio telah meningkatkan kecepatan dan efisiensi transaksi di Layer2, sehingga meningkatkan kinerja Ethereum Layer2. Menggabungkan teknologi AI ke dalam blockchain juga merupakan upaya yang inovatif dan menjanjikan. Pengenalan AI dapat memberikan analisis dan dukungan keputusan yang cerdas untuk operasi on-chain, sehingga mewujudkan aplikasi blockchain yang lebih cerdas dan dinamis. Integrasi lintas disiplin ini, tanpa ragu membuka jalan dan peluang baru untuk perkembangan keseluruhan industri.
Namun perlu diperhatikan bahwa bidang ini masih dalam tahap awal dan memerlukan banyak penelitian dan eksplorasi. Iterasi dan optimalisasi teknologi, serta imajinasi dan tindakan pelopor pasar, akan menjadi pendorong kunci untuk mendorong inovasi ini menuju kedewasaan. Reddio telah mengambil langkah penting dan berani di titik temu ini, dan kami berharap untuk melihat lebih banyak terobosan dan kejutan di bidang integrasi ini di masa depan.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Reddio技术概览:从并行EVM到AI的叙事综述
Penulis: Wuyue, web3 geek
Dalam perkembangan teknologi Blokchain yang semakin cepat saat ini, optimisasi kinerja telah menjadi isu kunci. Ethereum (ETH) telah memiliki roadmap yang jelas dengan fokus pada Rollup, sementara karakteristik pengolahan transaksi EVM secara serial menjadi pembatas yang tidak dapat memenuhi kebutuhan komputasi tingkat tinggi di masa depan.
Dalam artikel sebelumnya - ‘Melihat Jalur Optimalisasi EVM Paralel dari Reddio’, kami telah memberikan gambaran singkat tentang desain EVM paralel Reddio. Namun, dalam artikel hari ini, kami akan memberikan pemahaman yang lebih mendalam tentang rencana teknisnya, serta kombinasi scenarionya dengan kecerdasan buatan (AI).
Karena solusi teknis Reddio menggunakan CuEVM, yang merupakan proyek untuk meningkatkan efisiensi eksekusi EVM dengan menggunakan GPU, mari kita mulai dengan CuEVM terlebih dahulu.
Gambaran Umum CUDA
CuEVM adalah proyek akselerasi GPU untuk EVM yang mengonversi opcode ETH ke CUDA Kernels untuk dieksekusi secara paralel pada GPU NVIDIA. Dengan kemampuan komputasi paralel GPU, ini meningkatkan efisiensi eksekusi instruksi EVM. Pengguna kartu grafis NVIDIA mungkin sering mendengar kata CUDA ini.
**Compute Unified Device Architecture, ini sebenarnya adalah platform komputasi paralel dan model pemrograman yang dikembangkan oleh NVIDIA. Ini memungkinkan pengembang menggunakan kemampuan komputasi paralel GPU untuk komputasi umum (seperti Penambangan dalam Crypto, operasi ZK, dll), tidak terbatas pada pemrosesan grafis.
Sebagai kerangka komputasi paralel yang terbuka, CUDA pada dasarnya adalah ekstensi dari bahasa C/C++, sehingga dapat diakses dengan cepat oleh programmer tingkat bawah yang menguasai C/C++. Salah satu konsep penting dalam CUDA adalah Kernel (fungsi inti), yang juga merupakan jenis fungsi dalam C++.
Namun berbeda dengan fungsi C++ konvensional yang hanya dieksekusi sekali, fungsi inti ini dieksekusi secara paralel oleh N thread CUDA yang berbeda sebanyak N kali saat dipanggil dengan sintaks <<<…>>>.
Setiap thread CUDA diberi ID thread independen, dan menggunakan struktur hierarki thread, mengalokasikan thread ke blok dan grid untuk mengelola sejumlah besar thread paralel. Dengan kompilator nvcc NVIDIA, kita dapat mengkompilasi kode CUDA menjadi program yang dapat dijalankan di GPU.
Alur Kerja Dasar CuEVM
Setelah memahami serangkaian konsep dasar CUDA, kita dapat melihat alur kerja CuEVM.
Pintu masuk utama CuEVM adalah run_interpreter, di sini transaksi yang akan diproses secara paralel dimasukkan dalam bentuk file json. Dari contoh kasus proyek, dapat dilihat bahwa yang dimasukkan adalah konten EVM standar, tidak perlu pengolahan atau terjemahan tambahan oleh pengembang.
Dalam run_interpreter(), Anda dapat melihat bahwa itu menggunakan sintaks <<…>> yang didefinisikan oleh CUDA untuk memanggil fungsi inti kernel_evm(). Kami telah menyebutkan sebelumnya, fungsi inti ini akan dipanggil secara paralel di GPU.
Dalam metode kernel_evm(), evm->run() dipanggil, dan kita dapat melihat bahwa ada banyak penilaian cabang untuk mengubah opcode EVM menjadi operasi CUDA.
Sebagai contoh, kita dapat melihat bahwa opcode penambahan OP_ADD dalam EVM diterjemahkan menjadi cgbn_add. CGBN (Cooperative Groups Big Numbers) adalah pustaka operasi aritmatika bilangan bulat multi-precisi yang berkinerja tinggi pada CUDA.
Dua langkah ini mengubah kode operasi EVM menjadi operasi CUDA. Dapat dikatakan bahwa CuEVM juga merupakan implementasi semua operasi EVM di atas CUDA. Akhirnya, metode run_interpreter() mengembalikan hasil operasi, yaitu status dunia dan informasi lainnya.
Pada titik ini, logika dasar operasi CuEVM telah selesai dijelaskan.
CuEVM memiliki kemampuan untuk memproses transaksi secara paralel, namun tujuan utama dari proyek CuEVM (atau kasus penggunaan utama yang ditunjukkan) adalah untuk melakukan pengujian Fuzzing: Fuzzing adalah teknik pengujian perangkat lunak otomatis yang menggunakan input data yang tidak valid, tak terduga, atau acak untuk mengamati respons program dan mengidentifikasi masalah kesalahan potensial dan keamanan.
Kita dapat melihat bahwa Fuzzing sangat cocok untuk diproses secara paralel. Namun, CuEVM tidak menangani masalah konflik transaksi dan sejenisnya, itu bukan masalah yang dikhawatirkan. Jika ingin mengintegrasikan CuEVM, maka perlu menangani transaksi konflik.
Kami telah mengenalkan mekanisme penanganan konflik yang digunakan oleh Reddio dalam artikel sebelumnya, ‘Perjalanan Optimisasi EVM Paralel dari Reddio’. Di sini, kami tidak akan mengulanginya. Setelah Reddio mengurutkan transaksi dengan mekanisme penanganan konflik, maka transaksi tersebut akan dikirim ke CuEVM. Dengan kata lain, mekanisme pengurutan transaksi L2 Reddio terdiri dari penanganan konflik + eksekusi paralel CuEVM.
Layer2, Parallel EVM, Tiga Persimpangan AI
Dalam pembicaraan sebelumnya, penggunaan paralel EVM dan L2 hanyalah awal dari Reddio, sementara rencana masa depannya akan secara jelas mengintegrasikan narasi AI. Reddio, yang menggunakan GPU untuk transaksi paralel yang cepat, secara alami cocok untuk komputasi AI dalam banyak aspek khusus:
Jadi bagaimana sebenarnya AI dan L2 digabungkan?
Kami tahu dalam desain arsitektur Rollup, dalam jaringan keseluruhan sebenarnya bukan hanya sorter, tetapi juga beberapa peran seperti pengawas dan pengirim, yang digunakan untuk memvalidasi atau mengumpulkan transaksi, mereka pada dasarnya menggunakan klien yang sama dengan sorter, hanya memiliki fungsi yang berbeda. Di Rollup tradisional, peran-peran sekunder ini memiliki fungsi dan izin yang sangat terbatas, seperti peran watcher dalam Arbitrum, yang pada dasarnya pasif dan defensif serta mungkin diragukan model keuntungannya.
Reddio akan menggunakan arsitektur Desentralisasi sorter, Penambang menyediakan GPU sebagai Node. ** Seluruh jaringan Reddio dapat berkembang dari L2 biasa menjadi jaringan komprehensif L2+AI, yang dapat dengan baik mengimplementasikan beberapa kasus penggunaan AI+Blokchain: **
Jaringan Dasar Interaksi Agen AI
Dengan evolusi terus-menerus dari teknologi Blockchain, potensi aplikasi AI Agent di jaringan Blockchain sangat besar. Sebagai contoh, kita bisa melihat AI Agent yang melakukan transaksi keuangan, agen pintar ini mampu membuat keputusan kompleks secara mandiri dan melaksanakan operasi perdagangan, bahkan mampu bereaksi dengan cepat dalam kondisi frekuensi tinggi. Namun, L1 hampir tidak mungkin untuk menangani beban transaksi besar ketika melakukan operasi yang padat seperti ini.
Sebagai proyek L2, Reddio dapat meningkatkan kemampuan pemrosesan transaksi secara paralel melalui akselerasi GPU. Dibandingkan dengan L1, L2 yang mendukung eksekusi transaksi paralel memiliki throughput yang lebih tinggi, sehingga dapat efisien mengelola permintaan transaksi berfrekuensi tinggi dari banyak AI Agent dan memastikan kelancaran jaringan.
Dalam perdagangan frekuensi tinggi, AI Agents memiliki persyaratan yang sangat ketat terhadap kecepatan transaksi dan waktu respons. L2 mengurangi waktu verifikasi dan eksekusi transaksi, sehingga secara signifikan mengurangi latensi. Hal ini sangat penting bagi AI Agent yang membutuhkan respons dalam hitungan milidetik. Dengan memigrasikan banyak transaksi ke L2, juga efektif mengurangi masalah kemacetan di Mainnet. Ini membuat operasi AI Agents menjadi lebih ekonomis dan efisien.
Dengan kedewasaan proyek L2 seperti Reddio, AI Agent akan memainkan peran yang lebih penting dalam Blok-on-chain, mendorong inovasi dalam kombinasi Keuangan Desentralisasi dan aplikasi lain dari Blok dengan kecerdasan buatan.
DesentralisasiDaya Komputasi市场
Reddio di masa depan akan menggunakan arsitektur Desentralisasi sorter, Penambang menggunakan Daya Komputasi GPU untuk menentukan hak pengurutan, kinerja GPU peserta dalam jaringan secara keseluruhan akan meningkat seiring dengan persaingan, bahkan bisa mencapai tingkat yang digunakan untuk pelatihan AI.
Membangun pasar Daya Komputasi GPU Desentralisasi untuk menyediakan sumber Daya Komputasi yang lebih murah bagi pelatihan dan inferensi kecerdasan buatan (AI). Daya Komputasi GPU dari berbagai tingkatan, mulai dari komputer pribadi hingga klaster ruang server, dapat bergabung dalam pasar ini untuk menyumbangkan Daya Komputasi yang tidak terpakai dan mendapatkan penghasilan. Model ini dapat menurunkan biaya komputasi AI dan melibatkan lebih banyak orang dalam pengembangan dan aplikasi model AI.
Dalam kasus penggunaan DesentralisasiDaya Komputasi, sorter mungkin tidak sepenuhnya bertanggung jawab atas komputasi AI secara langsung, fungsinya utama adalah untuk memproses transaksi dan mengkoordinasikan AIDaya Komputasi di seluruh jaringan. Sementara mengenai Daya Komputasi dan alokasi tugas, ada dua mode di dalamnya:
Dalam arsitektur L2 + AI, pasar Daya Komputasi memiliki fleksibilitas yang sangat tinggi, dapat mengumpulkan Daya Komputasi dari dua arah untuk meningkatkan efisiensi sumber daya sebanyak mungkin.
on-chain AI Inference
Saat ini, kematangan model Sumber Terbuka sudah cukup untuk memenuhi berbagai kebutuhan. Dengan standarisasi layanan inferensi AI, mengeksplorasi bagaimana mengaitkan Daya Komputasi ke blockchain untuk mencapai penentuan harga otomatis menjadi mungkin. Namun, ini memerlukan penyelesaian beberapa tantangan teknis:
Namun dalam arsitektur Reddio, semua ini relatif mudah diatasi:
Ringkasan
Secara keseluruhan, solusi Layer2, EVM paralel, dan teknologi AI, meskipun terlihat tidak berhubungan satu sama lain, Reddio berhasil menggabungkannya secara organik dengan memanfaatkan fitur komputasi GPU secara efektif.
Dengan memanfaatkan sifat komputasi paralel GPU, Reddio telah meningkatkan kecepatan dan efisiensi transaksi di Layer2, sehingga meningkatkan kinerja Ethereum Layer2. Menggabungkan teknologi AI ke dalam blockchain juga merupakan upaya yang inovatif dan menjanjikan. Pengenalan AI dapat memberikan analisis dan dukungan keputusan yang cerdas untuk operasi on-chain, sehingga mewujudkan aplikasi blockchain yang lebih cerdas dan dinamis. Integrasi lintas disiplin ini, tanpa ragu membuka jalan dan peluang baru untuk perkembangan keseluruhan industri.
Namun perlu diperhatikan bahwa bidang ini masih dalam tahap awal dan memerlukan banyak penelitian dan eksplorasi. Iterasi dan optimalisasi teknologi, serta imajinasi dan tindakan pelopor pasar, akan menjadi pendorong kunci untuk mendorong inovasi ini menuju kedewasaan. Reddio telah mengambil langkah penting dan berani di titik temu ini, dan kami berharap untuk melihat lebih banyak terobosan dan kejutan di bidang integrasi ini di masa depan.