Огляд технології Reddio: від паралельного EVM до AI огляду

Автор: Вуся, гік веб3

У сьогоднішній день, коли темпи ітерації технології Блокчейн зростають, оптимізація продуктивності вже стала ключовою темою. ETH має дуже чітку дорожню карту, зосереджену на Rollup, тоді як характеристика послідовної обробки транзакцій EVM - це обмеження, яке не зможе задовольнити майбутнє високонавантажене обчислювальне середовище.

У попередній статті “Шлях оптимізації паралельної EVM від Reddio” ми коротко описали концепцію паралельного EVM від Reddio, а в цій статті ми розглянемо його технічні рішення та глибше розглянемо поєднання з сценаріями штучного інтелекту.

Технічна схема Reddio використовує CuEVM, це проект, який використовує GPU для підвищення ефективності виконання EVM. Давайте почнемо з CuEVM.

Огляд CUDA

CuEVM - це проект з прискорення EVM за допомогою GPU, який перетворює операційні коди ETH EVM на CUDA-ядра для паралельного виконання на GPU від NVIDIA. Завдяки паралельним обчислювальним можливостям GPU підвищується ефективність виконання інструкцій EVM. Можливо, користувачі N-карт часто чули слово CUDA -

**Compute Unified Device Architecture, насправді, це платформа та модель програмування паралельних обчислень, розроблена NVIDIA. Вона дозволяє розробникам використовувати паралельні обчислювальні можливості GPU для загальних обчислень (наприклад, Майнінг у Crypto, ZK-операції) і не обмежуватися лише графічною обробкою.

Як відкритий паралельний обчислювальний фреймворк, CUDA суттєво є розширенням мови C/C++, і будь-який досвідчений програміст, який знає C/C++, може швидко зрозуміти. Ще одним важливим поняттям у CUDA є ядро (функція ядра), яке також є функцією мови C++.

Але, на відміну від звичайних функцій C++, які виконуються лише один раз, ці ядерні функції виконуються паралельно N раз за допомогою N різних паралельних CUDA-потоків, коли вони викликаються за допомогою синтаксису <<…>>.

Кожному потоку CUDA надається окремий ідентифікатор потоку і використовується ієрархія потоків, щоб розподіляти потоки на блоки та сітки для керування великою кількістю паралельних потоків. За допомогою компілятора nvcc від NVIDIA ми можемо компілювати код CUDA в програми, які можна виконувати на GPU.

Основний робочий процес CuEVM

Після розуміння базових концепцій CUDA можна переглянути робочий процес CuEVM.

Головним входом до CuEVM є run_interpreter, звідки можна вводити транзакції, які будуть оброблятися паралельно у вигляді json-файлів. Як видно з кейсів використання проєкту, вхідними даними є весь стандартний вміст EVM, і розробникам не потрібно окремо обробляти, перекладати тощо.

У функції run_interpreter() можна побачити, що вона використовує ядро функції kernel_evm(), викликане синтаксисом <<…>>, визначеним CUDA. Як ми згадували раніше, ядро функції запускається паралельно на GPU.

У методі kernel_evm() викликається evm->run(), ми можемо побачити, що тут є багато гілок визначення, щоб перетворити операційний код EVM на операцію CUDA.

На прикладі операційного коду OP_ADD в EVM можна побачити, що він перетворює ADD в cgbn_add. А CGBN (Cooperative Groups Big Numbers) - це бібліотека обчислень великих чисел з високою продуктивністю для CUDA.

Ці два кроки перетворюють операційні коди EVM на операції CUDA. Можна сказати, що CuEVM також є реалізацією всіх операцій EVM на CUDA. Нарешті, метод run_interpreter() повертає результат обчислення, а саме стан світу та іншу інформацію.

Таким чином, основна логіка роботи CuEVM була описана.

CuEVM має можливість паралельної обробки угод, але головна мета (або основний випадок використання), для якого було запущено CuEVM, - це використання для проведення тестування на вразливість за допомогою Fuzzing: Fuzzing - це автоматизована техніка тестування програмного забезпечення, яка полягає в введенні великої кількості недійсних, несподіваних або випадкових даних у програму для спостереження за її реакцією та виявлення потенційних помилок та проблем безпеки.

Ми можемо побачити, що Fuzzing дуже підходить для паралельної обробки. Але CuEVM не вирішує проблеми конфліктів угод, це не те, що його цікавить. Якщо ви хочете інтегрувати CuEVM, вам все ще потрібно обробляти конфліктні угоди.

Ми вже розглядали механізм вирішення конфліктів, що використовується в Reddio, у статті «Від Reddio до оптимізації паралельної EVM». Після того, як Reddio відсортує транзакції за механізмом вирішення конфліктів, їх можна відправити в CuEVM. Іншими словами, механізм сортування транзакцій на рівні L2 Reddio можна розділити на дві частини: вирішення конфліктів та паралельне виконання в CuEVM.

Layer2, паралельний EVM, розгалуження штучного інтелекту

Попередній текст говорить, що паралельний EVM та L2 - це лише вихідна точка Reddio, а в її майбутній дорожній карти це буде чітко поєднано з AI наративом. Reddio, що використовує GPU для швидких паралельних угод, природно підходить для обчислень засобами штучного інтелекту в багатьох відношеннях.

  • Паралельні обчислювальні здібності GPU роблять його ідеальним для виконання згорткових обчислень в глибинному навчанні, які в сутності є масштабними матричними множеннями і для яких GPU оптимізований.
  • Структура рівня потоків GPU може відповідати різним структурам даних у обчисленнях штучного інтелекту, щоб підвищити ефективність обчислень за допомогою надмірної виконавчої одиниці та приховати затримку пам’яті.
  • Інтенсивність обчислень є ключовим показником продуктивності обчислювальної системи штучного інтелекту (AI). GPU покращує обчислювальну інтенсивність, наприклад, шляхом впровадження Tensor Core, щоб покращити продуктивність матричних множень в обчисленнях штучного інтелекту, щоб досягти ефективного балансу між обчисленнями та передачею даних.

Тоді як AI поєднується з L2?

Ми знаємо, що в архітектурі Rollup у всій мережі насправді не лише сортувальник, але й деякі ролі, схожі на наглядачів або посередників, для перевірки або збору транзакцій, які вони фактично використовують той самий клієнт, що й сортувальник, але вони несуть різні функціональні обов’язки. У традиційному Rollup ці вторинні ролі мають дуже обмежені функції та дозволи, наприклад, така роль, як наглядач у Arbitrum, майже пасивна та спрямована на захист та громадську користь, а її прибуткова модель також підлягає сумнівам.

Reddio буде використовувати архітектуру Децентралізація сортувальника, Майнер надає GPU як Нода. ** Вся мережа Reddio може еволюціонувати з простої L2 до комплексної L2 + AI мережі, яка добре виконує деякі випадки застосування AI + Блокчейн: **

Базова мережа взаємодії AI Agent

З розвитком технології Блокчейн AI Agent має великий потенціал застосування в мережі Блокчейн. Наприклад, ми взяли виконавчого AI Agent для фінансових операцій, ці інтелектуальні агенти можуть самостійно приймати складні рішення та виконувати операції з угодами, навіть здатні швидко реагувати на умови високої частоти. Однак L1 практично неможливо витримати велике транзакційне навантаження при обробці таких інтенсивних операцій.

Reddio, як L2-проект, може значно підвищити паралельність обробки транзакцій за допомогою прискорювача GPU. Порівняно з L1, L2, що підтримує паралельне виконання транзакцій, має вищу пропускну здатність, що дозволяє ефективно обробляти велику кількість високочастотних запитів на торгівлю AI Agent, забезпечуючи плавну роботу мережі.

У високочастотній торгівлі вимоги до швидкості та часу відповіді AI Agents дуже жорсткі. L2 зменшує час перевірки та виконання транзакції, що значно знижує затримку. Це надзвичайно важливо для AI Agent, які потребують відповіді на мілісекундному рівні. Перенесення великої кількості операцій до L2 також ефективно полегшує проблеми перевантаження на Основна мережа. Це дозволяє зробити операції AI Agents економічно ефективними.

Зі зрілістю L2-проєктів, таких як Reddio, AI Agent відіграватиме важливішу роль у Блоку блокчейні, сприяючи інноваціям поєднання децентралізованих фінансів та інших сценаріїв застосування ланцюга Блок зі штучним інтелектом.

ДецентралізаціяОбчислювальна потужність市场

Reddio майбутньо використовуватиме архітектуру сортувальника Децентралізація, де Майнер вирішує право на сортування за допомогою обчислювальної потужності GPU, загальна продуктивність GPU учасників мережі буде поступово зростати внаслідок конкуренції, навіть може досягти рівня, який можна використовувати для навчання штучного інтелекту.

Побудова ринку Обчислювальна потужність GPU з Децентралізація для забезпечення більш низьких витрат на Обчислювальна потужність для навчання та інференсу штучного інтелекту. Обчислювальна потужність може бути різною, починаючи від персональних комп’ютерів до кластерів серверів; Обчислювальна потужність GPU різного рівня може приєднатися до цього ринку, надаючи свою невикористану Обчислювальна потужність та заробляючи прибуток. Ця модель може призвести до Падіння витрат на обчислення AI та залучити більше людей до розробки та використання моделей штучного інтелекту.

У випадках використання на ринку ДецентралізаціяОбчислювальна потужність, сортувальник, можливо, не відповідає за безпосереднє обчислення ШІ, його головна функція полягає в обробці транзакцій та координації ШІ у всій мережі. Щодо Обчислювальна потужність та розподіл завдань, тут є два режими:

  • Зверху вниз централізоване розподілення. Завдяки сортувальнику, який може розподіляти запити на Обчислювальна потужність відповідно до вимог та репутації Нода, цей спосіб розподілу, хоча в теорії має проблеми централізації та несправедливості, на практиці має значну перевагу ефективності перед недоліками. Крім того, у майбутньому сортувальник повинен задовольняти цілісність всієї мережі для довгострокового розвитку, що означає, що існує прихований, але прямий обмежувальний фактор, що забезпечує відсутність серйозного упередженості у сортувальнику.
  • Самовибір завдань знизу вгору. Користувачі також можуть надсилати запити на обчислення штучного інтелекту спеціалізованим Нода третьої сторони, що, очевидно, є ефективнішим у певних областях застосування штучного інтелекту, ніж просте подання до сортувальника, а також запобігає рецензуванню та упередженості сортувальника. Після завершення обчислень цей Нода синхронізує результати обчислень з сортувальником та додає їх до ланцюга.

Ми бачимо, що в архітектурі L2+ AI високий ступінь гнучкості має ринок потужності Обчислювальна, яку можна зібрати з двох напрямків для максимального використання ресурсів.

у блокчейніAI інференція

Наразі зрілість відкритого вихідного коду моделі вже достатня для задоволення різноманітних потреб. Зі стандартизацією сервісів машинного навчання виникає можливість дослідження, як обчислювальну потужність включити в ланцюг для автоматизованого ціноутворення. Однак це потребує подолання кількох технічних викликів:

  1. Ефективне розподілення та реєстрація запитів: Великі моделі мають високі вимоги до затримки, тому ефективний механізм розподілу запитів є дуже важливим. Навіть при великому обсязі даних запитів та відповідей, які мають конфіденційний характер і не можуть бути публічно опубліковані на Блоку блокчейні, все ж потрібно знайти баланс між реєстрацією та перевіркою - наприклад, шляхом збереження хешу.
  2. Перевірка обчислювальної потужності виходу вузла: Чи справді вузол завершив визначене обчислювальне завдання? Наприклад, чи вузол не вигадує результати обчислень за допомогою невеликої моделі замість великої.
  3. Розумний контракт розуму: в багатьох сценаріях необхідно поєднувати модель штучного інтелекту з розумним контрактом. Оскільки розумне обчислення має невизначеність і не може бути використане у всіх аспектах блокчейну, тому логіка майбутнього додатку зі штучним інтелектом, ймовірно, буде частково розташована поза блокчейном, а інша частина буде в умовах укладання контракту на блокчейні, де відбувається обмеження введених даних та їхньої легітимності. У екосистемі Ethereum, поєднання розумного контракту зіштучним інтелектом потребує вирішення проблеми низької ефективності послідовності EVM.

Але в архітектурі Reddio це все відносно легко вирішити:

  1. Сортувальник розподілу запитів є набагато ефективнішим, ніж L1, і можна вважати, що він має таку ж ефективність, як у Web2. Що ж до місцезнаходження та способу збереження даних, це може бути вирішено різними доступними та недорогими рішеннями DA.
  2. Результати обчислення штучного інтелекту можуть бути підтверджені на правильність та доброзичливість за допомогою ZKP. Особливістю ZKP є швидка перевірка, але повільне створення підтверджень. Генерацію ZKP також можна прискорити за допомогою GPU або TEE.
  3. Solidty → CUDA → GPU ця паралельна основна лінія EVM вже є основою Reddio. Тому, на перший погляд, це найпростіше питання для Reddio. Зараз Reddio співпрацює з eliza від AiI6z, щоб вивести її модуль в Reddio, це дуже цікавий напрямок досліджень.

Заключення

В цілому, вирішення Layer2, паралельна EVM та технологія штучного інтелекту на перший погляд можуть здатися непов’язаними, але Reddio вдало поєднав ці три інноваційні галузі, використовуючи повністю обчислювальні властивості GPU.

З використанням паралельних обчислень GPU Reddio підвищив швидкість та ефективність транзакцій на Layer2, що сприяло покращенню продуктивності у другому рівні ETH-блокчейну. Впровадження штучного інтелекту в блокчейн безперечно є новаторським та перспективним спробом. Застосування штучного інтелекту може забезпечити інтелектуальний аналіз та підтримку прийняття рішень у операціях у блокчейні, забезпечуючи більш розумні та динамічні застосування блокчейну. Ця міжгалузева інтеграція, безсумнівно, відкриває нові шляхи та можливості для розвитку цілої галузі.

Однак, варто звернути увагу на те, що ця галузь все ще знаходиться на ранній стадії і потребує багато досліджень і досліджень. Постійне оновлення технологій та їх оптимізація, а також уява та дії ринкових лідерів, стануть ключовими пусковими механізмами, що сприятимуть зрілості цього інноваційного процесу. Reddio вже зробив важливий і сміливий крок на цьому перехресті, і ми очікуємо більше проривів і сюрпризів у цій сфері інтеграції в майбутньому.

ETH-0,37%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити