Visão geral da tecnologia Reddio: Uma visão geral narrativa de EVM paralelo para AI

Autor: Wuyue, Geek Web3

No rápido avanço da tecnologia Blockchain hoje, a otimização de desempenho tornou-se uma questão-chave. O roadmap do Éter já é muito claro, com o Rollup no centro, e as características de processamento de transações EVM em série são uma restrição que não pode atender às futuras cenas de computação de alta concorrência.

No artigo anterior - ‘O caminho da otimização do EVM paralelo visto pelo Reddio’ - descrevemos brevemente a abordagem de design do EVM paralelo do Reddio. Neste artigo, vamos fazer uma análise mais detalhada da solução técnica e das suas integrações com IA.

Devido ao facto de a solução técnica da Reddio utilizar o CuEVM, que é um projeto que utiliza a GPU para aumentar a eficiência da execução do EVM, começaremos por falar sobre o CuEVM.

Visão geral do CUDA

CuEVM é um projeto que acelera o EVM com GPU, convertendo os códigos de operação do EVM para Kernels CUDA para execução paralela em GPUs NVIDIA. A capacidade de computação paralela da GPU é utilizada para melhorar a eficiência da execução das instruções do EVM. Os usuários de placas gráficas NVIDIA podem estar familiarizados com a palavra CUDA.

Compute Unified Device Architecture,esta é na verdade uma plataforma de computação paralela e modelo de programação desenvolvida pela NVIDIA. Permite aos programadores utilizar a capacidade de computação paralela da GPU para cálculos gerais (por exemplo, Mineração em Crypto, cálculos ZK, etc.), e não apenas processamento gráfico.

Como uma estrutura de computação paralela aberta, CUDA é essencialmente uma extensão da linguagem C/C++, e qualquer programador de baixo nível familiarizado com C/C++ pode começar rapidamente. Um conceito importante no CUDA é o Kernel (função núcleo), que também é uma função C++.

Mas ao contrário de uma função C++ convencional que é executada apenas uma vez, essas funções de kernel são executadas N vezes em paralelo por N threads CUDA diferentes quando chamadas pela sintaxe de lançamento <<<…>>>.

Cada thread do CUDA é atribuído a um ID de thread independente e adota uma estrutura hierárquica de threads, alocando threads em blocos e grids para gerenciar um grande número de threads em paralelo. Com o compilador nvcc da NVIDIA, podemos compilar o código CUDA para um programa que pode ser executado na GPU.

Fluxo de trabalho básico do CuEVM

Depois de entender uma série de conceitos básicos do CUDA, você pode dar uma olhada no fluxo de trabalho do CuEVM.

A principal entrada do CuEVM é run_interpreter, onde as transações a serem processadas em paralelo são inseridas em formato de arquivo json. A partir dos casos de uso do projeto, pode-se ver que as entradas são todas conteúdos EVM padrão, não necessitando de tratamento ou tradução separada por parte do desenvolvedor.

No run_interpreter(), it can be seen that it calls the kernel_evm() kernel function using the <<…>> syntax defined by CUDA. As mentioned earlier, the kernel function is parallelized in the GPU.

O método kernel_evm() chama evm->run(), onde vemos muitas ramificações para converter os códigos de operação EVM em operações CUDA.

Tomemos o código de operação OP_ADD do EVM como exemplo. Podemos ver que ele converte ADD em cgbn_add. E CGBN (Cooperative Groups Big Numbers) é uma biblioteca de aritmética de números inteiros de alta performance para CUDA.

Estes dois passos convertem os códigos de operação EVM em operações CUDA. Pode-se dizer que CuEVM também é uma implementação de todas as operações EVM no CUDA. Por fim, o método run_interpreter() retorna o resultado da computação, ou seja, o estado mundial e outras informações.

Até agora, a lógica básica de operação do CuEVM foi introduzida.

CuEVM tem a capacidade de processar transações em paralelo, mas o objetivo do projeto CuEVM (ou o principal caso de uso) é realizar testes de Fuzzing: Fuzzing é uma técnica de teste de software automatizada que, ao inserir uma grande quantidade de dados inválidos, inesperados ou aleatórios em um programa, observa a resposta do programa para identificar possíveis erros e problemas de segurança.

Podemos ver que o Fuzzing é muito adequado para processamento paralelo. No entanto, o CuEVM não lida com problemas de conflito de transações, que não é a sua preocupação. Se quiser integrar o CuEVM, então também é necessário lidar com transações conflituosas.

Já introduzimos o mecanismo de resolução de conflitos utilizado pela Reddio no artigo anterior “A jornada da otimização paralela da EVM com Reddio”. Não vamos repetir aqui. Depois de ordenar as transações com o mecanismo de resolução de conflitos, o Reddio pode enviá-las para a execução paralela do CuEVM. Em outras palavras, o mecanismo de ordenação de transações da Reddio L2 pode ser dividido em duas partes: resolução de conflitos e execução paralela do CuEVM.

Layer2, EVM paralela, o trilema da IA

Como mencionado anteriormente, a integração da EVM paralela e da L2 é apenas o ponto de partida para a Reddio, e seu futuro roadmap incluirá uma clara combinação com narrativas de IA. A Reddio, que utiliza GPUs para transações paralelas de alta velocidade, é naturalmente adequada para operações de IA em muitos aspectos.

  • A capacidade de processamento paralelo da GPU é forte, adequada para executar operações de convolução em Profundidade aprendizagem, essas operações são essencialmente multiplicação de matrizes em grande escala, e a GPU é otimizada para esse tipo de tarefas.
  • A estrutura de níveis de threads da GPU pode corresponder aos diferentes tipos de estruturas de dados em cálculos de IA, aumentando a eficiência do cálculo e ocultando a latência de memória através do sobre-alocamento de threads e unidades de execução de warp.
  • A intensidade de cálculo é um indicador chave do desempenho de cálculo de IA, e a GPU otimiza a intensidade de cálculo, como a introdução do Core Tensor, para melhorar o desempenho da multiplicação de matrizes na computação de IA, alcançando um equilíbrio eficaz entre cálculo e transferência de dados.

Então, como exatamente a IA e a L2 são combinadas?

Sabemos que no design da arquitetura do Rollup, toda a rede não é apenas um ordenador, mas também desempenha papéis semelhantes a supervisores e encaminhadores para verificar ou coletar transações. Eles essencialmente usam o mesmo cliente que o ordenador, apenas desempenhando funções diferentes. Em Rollups tradicionais, esses papéis secundários têm funções e permissões muito limitadas, como o papel de observador no Arbitrum, que é essencialmente passivo, defensivo e de interesse público, e seu modelo de lucro também é questionável.

Reddio irá adotar a arquitetura do classificador de Descentralização, com Mineiro fornecendo GPU como Nó. Toda a rede Reddio pode evoluir de uma simples L2 para uma rede abrangente L2+AI, o que pode ser bem-sucedido na implementação de alguns casos de uso de IA+Bloco:

Rede Básica de Interação do Agente de IA

Com a evolução contínua da tecnologia Blockchain, o potencial de aplicação do AI Agent na rede Blockchain é enorme. Tomemos como exemplo o AI Agent que executa transações financeiras, esses agentes inteligentes podem tomar decisões complexas e executar operações de negociação de forma autônoma, e até mesmo reagir rapidamente em condições de alta frequência. No entanto, o L1 é basicamente incapaz de lidar com uma carga de transação tão grande ao lidar com operações intensivas como essa.

Como projeto L2, a Reddio pode aumentar significativamente a capacidade de processamento paralelo das transações por meio da aceleração da GPU. Comparado ao L1, o L2 que suporta a execução paralela das transações possui uma maior capacidade de processamento, podendo efetivamente lidar com um grande volume de solicitações de transações de alta frequência do Agente de IA, garantindo assim a operação suave da rede.

Nos negócios de alta frequência, os AI Agents têm requisitos rigorosos em termos de velocidade de negociação e tempo de resposta. L2 reduz o tempo de verificação e execução das transações, resultando em uma queda significativa na latência. Isso é crucial para os AI Agents que precisam de respostas em milissegundos. Ao migrar um grande número de transações para L2, também se alivia efetivamente a congestão na Rede principal. Isso torna as operações dos AI Agents mais econômicas e eficientes.

Com o amadurecimento de projetos L2 como Reddio, o AI Agent desempenhará um papel mais importante na cadeia Blocona, impulsionando a inovação na combinação de Finanças Descentralizadas e outros cenários de aplicação da cadeia Bloco com AI.

DescentralizaçãoPoder de computação市场

Reddio no futuro adotará a arquitetura do classificador Descentralização, onde Mineiro determina os direitos de classificação com Poder de computação GPU, o desempenho geral da GPU dos participantes da rede aumentará gradualmente com a competição, podendo até atingir o nível de ser utilizado para treinamento de IA.

Construa um mercado de Poder de computação de GPU descentralizado para fornecer recursos de Poder de computação de menor custo para treinamento e inferência de IA. O Poder de computação de GPU de vários níveis, desde computadores pessoais até clusters de data center, pode ser adicionado ao mercado para contribuir com seu Poder de computação ocioso e ganhar receita. Esse modelo pode reduzir os custos de cálculo da IA e permitir que mais pessoas participem do desenvolvimento e aplicação de modelos de IA.

No mercado de DescentralizaçãoPoder de computação, o classificador pode não ser principalmente responsável pelo cálculo direto da IA, sua função principal é processar transações e coordenar a AIPoder de computação em toda a rede. Quanto ao Poder de computação e à distribuição de tarefas, existem dois modos aqui:

  • Distribuição centralizada de cima para baixo. Como há um classificador, o classificador pode distribuir solicitações de Poder de computação recebidas para Nós que atendam aos requisitos e tenham boa reputação. Embora esse método de distribuição teoricamente apresente problemas de centralização e injustiça, na prática, as vantagens de eficiência superam em muito as desvantagens, e a longo prazo, o classificador deve satisfazer a integridade de toda a rede para se desenvolver a longo prazo, ou seja, há restrições implícitas, mas diretas, para garantir que o classificador não tenha um viés muito sério.
  • Seleção de tarefas espontâneas de baixo para cima. Os usuários também podem enviar pedidos de computação de IA a um terceiro Nó, o que é claramente mais eficiente em áreas de aplicação de IA específicas do que enviar diretamente para o classificador, e também pode evitar a revisão e o viés do classificador. Após a conclusão do cálculo, o Nó sincroniza os resultados do cálculo com o classificador e os coloca em cadeia.

Podemos ver que no sistema L2 + AI, o mercado de Poder de computação tem alta flexibilidade e pode agregar Poder de computação de duas direções, maximizando a eficiência dos recursos.

na cadeiaAI推理

Atualmente, a maturidade do modelo de Código aberto é suficiente para atender a diversas necessidades. Com a padronização dos serviços de inferência de IA, torna-se possível explorar como colocar o Poder de computação em cadeia para realizar a precificação automatizada. No entanto, isso requer superar diversos desafios técnicos:

  1. Distribuição e registro eficientes de solicitações: A inferência de modelos grandes tem alta exigência de latência, portanto, um mecanismo eficiente de distribuição de solicitações é fundamental. Embora o volume de dados de solicitações e respostas seja grande e confidencial, não é adequado torná-los públicos na cadeia de blocos, mas é necessário encontrar um equilíbrio entre registro e validação - por exemplo, através do armazenamento de hash.
  2. Verificação da saída do Poder de computaçãoNó: O Nó realmente completou a tarefa de computação especificada? Por exemplo, o Nó relata falsamente os resultados da computação do pequeno modelo em vez do grande modelo.
  3. Raciocínio de Contratos Inteligentes: A combinação do modelo de IA com contratos inteligentes para operações em muitos cenários é essencial. Devido à incerteza do raciocínio de IA, não é possível aplicá-lo em todos os aspectos na cadeia, portanto, a lógica do futuro aplicativo de IA provavelmente estará parcialmente fora da cadeia e parcialmente nos contratos na cadeia, os quais restringem a validade e a legalidade dos valores fornecidos fora da cadeia. No ecossistema Ethereum, a combinação com contratos inteligentes enfrenta a ineficiência e a serialização da EVM.

Mas na arquitetura do Reddio, todas essas questões são relativamente fáceis de resolver:

  1. O distribuidor de classificadores é muito mais eficiente do que o L1 no encaminhamento de solicitações e pode ser considerado equivalente à eficiência do Web2. Quanto à localização e retenção de dados, isso pode ser resolvido por várias soluções de DA de baixo custo.
  2. Os resultados dos cálculos de IA podem ser verificados quanto à sua precisão e boa fé pelo ZKP. A característica do ZKP é que a verificação é muito rápida, mas a geração de provas é mais lenta. A geração de ZKP pode ser acelerada usando GPU ou TEE.
  3. Solidty → CUDA → GPU esta linha paralela EVM é a base do Reddio. Então, superficialmente, este é o problema mais simples para a Reddio. Atualmente, Reddio está colaborando com eliza da AiI6z para introduzir seus módulos no Reddio, o que é uma direção muito merecedora de exploração.

Sumário

Globalmente, as soluções Layer2, EVM paralelo e tecnologia de IA parecem não estar relacionadas, mas a Reddio conseguiu combinar habilmente essas grandes áreas de inovação de forma orgânica, aproveitando ao máximo as características de computação da GPU.

Aproveitando a natureza computacional paralela da GPU, a Reddio melhora a velocidade e eficiência das transações na Camada 2, melhorando o desempenho do Ethereum. A incorporação da tecnologia de IA na blockchain é uma tentativa inovadora e promissora. A introdução da IA pode fornecer análises e suporte à tomada de decisões inteligentes para operações na cadeia, tornando as aplicações blockchain mais inteligentes e dinâmicas. Essa integração interdisciplinar, sem dúvida, abre novos caminhos e oportunidades para toda a indústria.

No entanto, é importante notar que este campo ainda está em estágios iniciais e requer muita pesquisa e exploração. A iteração e otimização contínuas da tecnologia, bem como a imaginação e ação dos pioneiros do mercado, serão impulsionadores cruciais para impulsionar essa inovação em direção à maturidade. Reddio deu um passo importante e corajoso neste ponto de interseção, e esperamos ver mais avanços e surpresas no futuro neste campo de integração.

ETH-0,37%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)