En el rápido avance de la tecnología de la Cadena de bloques hoy en día, la optimización del rendimiento se ha convertido en un tema clave. La hoja de ruta de Ethereum es muy clara, centrándose en Rollup, mientras que la característica de procesamiento de transacciones en serie de EVM es una limitación y no puede satisfacer los futuros escenarios de cálculo de alta concurrencia.
En el artículo anterior, ‘El camino hacia la optimización de EVM paralela desde Reddio’, resumimos brevemente la idea de diseño de EVM paralela de Reddio. En este artículo, profundizaremos en su solución técnica y en la integración de escenarios con inteligencia artificial.
Debido a que la solución técnica de Reddio utiliza CuEVM, que es un proyecto que utiliza GPU para mejorar la eficiencia de ejecución de EVM, comenzaremos hablando de CuEVM.
Visión general de CUDA
CuEVM es un proyecto de aceleración de EVM con GPU que convierte los códigos de operación de ETH en EVM en núcleos de CUDA para ejecutar en paralelo en las GPU de NVIDIA. Mejora la eficiencia de ejecución de las instrucciones de EVM mediante la capacidad de cálculo paralelo de las GPU. Es posible que los usuarios de tarjetas gráficas NVIDIA escuchen con frecuencia la palabra CUDA.
Compute Unified Device Architecture,esto es en realidad una plataforma de cómputo paralelo y un modelo de programación desarrollado por NVIDIA. Permite a los desarrolladores utilizar la capacidad de cómputo paralelo de la GPU para cómputo general (por ejemplo, Minería en Crypto, cálculos ZK, etc.), en lugar de limitarse solo al procesamiento de gráficos.
Como un marco de cálculo en paralelo abierto, CUDA esencialmente es una extensión de los lenguajes C/C++, por lo que cualquier programador experimentado en programación de bajo nivel en C/C++ puede comenzar rápidamente. Un concepto muy importante en CUDA es el Kernel (función kernel), que también es un tipo de función en C++.
Pero a diferencia de las funciones regulares de C++, estas funciones de núcleo se ejecutan N veces de forma paralela por N hilos CUDA diferentes cuando se invoca la sintaxis <<<…>>>.
Cada hilo de CUDA se le asigna un identificador de hilo independiente y adopta una estructura jerárquica de hilos, asignando los hilos a bloques y cuadrículas para gestionar una gran cantidad de hilos en paralelo. Con el compilador nvcc de NVIDIA, podemos compilar el código de CUDA en un programa que se puede ejecutar en la GPU.
Proceso básico de trabajo de CuEVM
Una vez que haya entendido una serie de conceptos básicos de CUDA, puede echar un vistazo al flujo de trabajo de CuEVM.
La entrada principal de CuEVM es run_interpreter, desde donde se ingresan las transacciones a procesar en paralelo en formato de archivo JSON. A partir de los casos de uso del proyecto, se puede observar que se ingresan contenidos estándar de EVM, sin necesidad de que los desarrolladores los procesen o traduzcan por separado.
En run_interpreter() se puede ver que utiliza la sintaxis <<…>> definida en CUDA para llamar a la función de núcleo kernel_evm(). Como mencionamos anteriormente, las funciones de núcleo se llaman en paralelo en la GPU.
En el método kernel_evm() se llamará a evm->run(), y podemos ver que hay una gran cantidad de ramificaciones para convertir los códigos de operación EVM en operaciones CUDA.
Tomando como ejemplo el código de operación OP_ADD en EVM, se puede ver que convierte ADD en cgbn_add. Y CGBN (Cooperative Groups Big Numbers) es una biblioteca de operaciones aritméticas de múltiples precisión de alta performance para CUDA.
Estos dos pasos convierten los códigos de operación EVM en códigos de operación CUDA. Se puede decir que CuEVM es la implementación de todas las operaciones EVM en CUDA. Finalmente, el método run_interpreter() devuelve el resultado de la operación, es decir, el estado del mundo y otra información.
Hasta aquí, la lógica básica de operación de CuEVM ha sido completamente presentada.
CuEVM tiene la capacidad de procesar transacciones en paralelo, pero el propósito principal (o caso de uso principal) del proyecto CuEVM es realizar pruebas de Fuzzing: Fuzzing es una técnica de prueba de software automatizada que consiste en ingresar una gran cantidad de datos inválidos, inesperados o aleatorios al programa para observar su respuesta y detectar posibles errores y problemas de seguridad.
Podemos ver que el Fuzzing es muy adecuado para el procesamiento paralelo. CuEVM no se ocupa de problemas como conflictos de transacciones, ya que no es su preocupación. Si desea integrar CuEVM, también debe manejar transacciones conflictivas.
En nuestro artículo anterior, ‘Optimización del EVM paralelo desde Reddio’, ya hemos presentado el mecanismo de resolución de conflictos utilizado por Reddio, por lo que no entraremos en detalles aquí. Una vez que Reddio ha ordenado las transacciones utilizando el mecanismo de resolución de conflictos, se envían a CuEVM para su ejecución. En otras palabras, el mecanismo de ordenación de transacciones de la capa 2 de Reddio se puede dividir en dos partes: resolución de conflictos y ejecución paralela de CuEVM.
Layer2, Paralelismo EVM, la Encrucijada de la IA
El artículo anterior hablaba de cómo la EVM paralela y la L2 son solo el comienzo para Reddio, y su futuro plan incluirá una clara combinación con la narrativa de la inteligencia artificial. Reddio, que utiliza GPU para transacciones paralelas de alta velocidad, es naturalmente adecuado para el cálculo de inteligencia artificial en muchos aspectos.
Las capacidades de procesamiento paralelo de la GPU son excelentes para realizar operaciones de convolución en Profundidad aprendizaje, que esencialmente son multiplicaciones masivas de matrices, y la GPU está optimizada para este tipo de tarea.
La estructura jerárquica de subprocesos de la GPU puede corresponder con diferentes estructuras de datos en el cómputo de inteligencia artificial, mejorando la eficiencia del cálculo a través de la sobrealocación de subprocesos y la unidad de ejecución de Warp para ocultar la latencia de la memoria.
La intensidad de cálculo es un indicador clave para medir el rendimiento de cálculo de la IA. Las GPU mejoran el rendimiento del cálculo de la IA, como la introducción de Tensor Core, para mejorar el rendimiento de la multiplicación de matrices en el cálculo de la IA y lograr un equilibrio efectivo entre el cálculo y la transferencia de datos.
Entonces, ¿cómo se combinan la IA y la capa 2?
Sabemos que en el diseño de la arquitectura de Rollup, en realidad no solo hay clasificadores en toda la red, sino también roles similares a supervisores y remitentes que validan o recopilan transacciones. Esencialmente, utilizan el mismo cliente que los clasificadores, pero desempeñan funciones diferentes. En el Rollup tradicional, las funciones y los permisos de estos roles secundarios son muy limitados, como el rol de observador en Arbitrum, que es principalmente defensivo y benéfico, pero su modelo de negocio también es cuestionable.
Reddio utilizará una arquitectura de clasificación Descentralización, con Minero proporcionando la GPU como Nodo. Toda la red de Reddio puede evolucionar de una simple L2 a una red integral L2 + AI, lo que permite implementar casos de uso de AI + Bloquear cadena:
La red de interacción básica de AI Agent
Con la continua evolución de la tecnología de Cadena de bloques, el potencial de aplicación de los agentes de IA en la red de Cadena de bloques es enorme. Tomemos como ejemplo los agentes de IA encargados de realizar transacciones financieras, estos agentes inteligentes pueden tomar decisiones complejas y ejecutar operaciones de transacción de forma autónoma, e incluso pueden reaccionar rápidamente en condiciones de alta frecuencia. Sin embargo, L1 es básicamente incapaz de soportar una carga de transacción tan grande al manejar este tipo de operaciones intensivas.
Como proyecto L2, Reddio puede mejorar significativamente la capacidad de procesamiento paralelo de transacciones mediante la aceleración GPU. En comparación con L1, L2 que admite la ejecución paralela de transacciones tiene una mayor capacidad de procesamiento, lo que permite manejar eficientemente las solicitudes de transacciones de alta frecuencia de muchos agentes de IA y garantizar el funcionamiento fluido de la red.
En el comercio de alta frecuencia, los requisitos de velocidad y tiempo de respuesta de los Agentes de IA son extremadamente exigentes. L2 reduce el tiempo de verificación y ejecución de las transacciones, lo que reduce significativamente la latencia. Esto es crucial para los Agentes de IA que necesitan responder en milisegundos. Al trasladar una gran cantidad de transacciones a L2, también se alivia efectivamente la congestión de la Mainnet. Esto hace que las operaciones de los Agentes de IA sean más económicas y eficientes.
Con el maduramiento de proyectos L2 como Reddio, AI Agent jugará un papel más importante en la cadena, impulsando la innovación en la combinación de Finanzas descentralizadas y otros casos de aplicación de la cadena con AI.
** DescentralizaciónPotencia computacional市场**
En el futuro, Reddio utilizará la arquitectura de ordenación Descentralización, donde los Mineros determinarán los derechos de ordenación utilizando Potencia computacional de GPU. El rendimiento de las GPU de los participantes de la red mejorará gradualmente con la competencia, incluso alcanzando el nivel utilizado para el entrenamiento de IA.
Construir un mercado de potencia computacional descentralizado para proporcionar recursos de potencia computacional de GPU de menor costo para el entrenamiento y la inferencia de AI. Desde la potencia computacional más pequeña, como la de una computadora personal, hasta la de un clúster de centro de datos, varios niveles de potencia computacional de GPU pueden unirse al mercado y contribuir con su potencia computacional inactiva para obtener ganancias. Este modelo puede soltar el costo de cálculo de AI y permitir que más personas participen en el desarrollo y aplicación de modelos de AI.
En los casos de uso de la DescentralizaciónPotencia computacional en el mercado, el clasificador puede no ser principalmente responsable de los cálculos directos de la IA, su función principal es procesar transacciones y coordinar la Potencia computacional de la IA en toda la red. Y en cuanto a la Potencia computacional y la asignación de tareas, hay dos modos aquí:
Distribución centralizada de arriba a abajo. Debido a la existencia del clasificador, éste puede asignar las solicitudes de potencia computacional recibidas a los nodos que cumplan con los requisitos y tengan una buena reputación. Aunque este método de asignación teóricamente plantea problemas de centralización e injusticia, en realidad, los beneficios en eficiencia superan con creces los inconvenientes. Además, a largo plazo, el clasificador debe cumplir con los intereses generales de toda la red para poder desarrollarse de manera sostenible y garantizar que no tenga una inclinación demasiado pronunciada, lo cual supone una restricción implícita pero directa.
Selección espontánea de tareas de abajo hacia arriba. Los usuarios también pueden enviar solicitudes de cálculo de IA a un Nodo de terceros, lo cual es claramente más eficiente que enviarlas directamente al clasificador, especialmente en áreas de aplicación de IA específicas, y también evita la revisión y el sesgo del clasificador. Una vez completado el cálculo, el Nodo sincroniza los resultados con el clasificador y los registra en la cadena.
Podemos ver que en la arquitectura de L2 + AI, el mercado de Potencia computacional tiene una gran flexibilidad, puede reunir Potencia computacional desde dos direcciones y maximizar al máximo la utilización de los recursos.
on-chainAI推理
Actualmente, la madurez de los modelos de Código abierto es suficiente para satisfacer diversas necesidades. Con la estandarización de los servicios de inferencia de IA, es posible explorar cómo llevar Potencia computacional a la cadena para lograr una fijación de precios automatizada. Sin embargo, esto requiere superar varios desafíos técnicos:
Distribución y registro eficiente de solicitudes: La inferencia de modelos grandes requiere una latencia alta, por lo que es crucial un mecanismo eficiente de distribución de solicitudes. Aunque los volúmenes de datos de solicitud y respuesta son grandes y confidenciales, no se deben hacer públicos en la cadena de bloques, pero aún es necesario encontrar un punto de equilibrio entre el registro y la verificación, como almacenar el hash.
Verificación de la potencia computacional del Nodo: ¿El Nodo ha completado realmente la tarea de cálculo especificada? Por ejemplo, ¿el Nodo informa falsamente resultados de cálculos con un modelo pequeño en lugar de un modelo grande?
** Razonamiento de contratos inteligentes **: Combinar modelos de IA con contratos inteligentes para realizar cálculos es necesario en muchos escenarios. Debido a la incertidumbre del razonamiento de IA, no es posible utilizarlo en todos los aspectos on-chain, por lo que es probable que la lógica de las futuras dApp de IA esté parcialmente fuera de la cadena y parcialmente en contratos on-chain, donde los contratos on-chain limitan la validez de las entradas proporcionadas fuera de la cadena y la legalidad de los valores. Y en el ecosistema de Ethereum, la combinación con contratos inteligentes debe enfrentarse a la baja eficiencia secuencial de la Máquina Virtual Ethereum (EVM).
Sin embargo, en la arquitectura de Reddio, todos estos problemas son relativamente fáciles de resolver:
El distribuidor de solicitudes del clasificador es mucho más eficiente que L1 y se puede considerar igual de eficiente que Web2. La ubicación y retención de los datos se pueden resolver mediante diferentes soluciones de DA económicas.
Los resultados de los cálculos de IA pueden ser verificados por ZKP para confirmar su precisión y buena intención. La característica de ZKP es que la verificación es muy rápida, pero la generación de pruebas es más lenta. La generación de ZKP se puede acelerar utilizando GPU o TEE.
Solidty → CUDA → GPU esta línea principal paralela de EVM es la base de Reddio. Por lo tanto, en apariencia, este es el problema más simple para Reddio. En la actualidad, Reddio está colaborando con AiI6z’s eliza para incorporar sus módulos en Reddio, lo que es una dirección muy valiosa para explorar.
Resumen
En general, las soluciones de Layer2, la EVM paralela y la tecnología de inteligencia artificial parecen no estar relacionadas entre sí, pero Reddio las combina de manera ingeniosa al aprovechar al máximo las características de cálculo de la GPU.
Reddio has improved transaction speed and efficiency on Layer 2 by leveraging the parallel computing capabilities of GPUs, enhancing the performance of the Ethereum on-chain. Integrating AI technology into blockchain is a novel and promising exploration. The introduction of AI can provide intelligent analysis and decision support for on-chain operations, enabling more intelligent and dynamic blockchain applications. This cross-domain integration undoubtedly opens up new paths and opportunities for the development of the entire industry.
Sin embargo, es importante tener en cuenta que este campo todavía está en sus primeras etapas y requiere mucha investigación y exploración. La constante iteración y optimización de la tecnología, así como la imaginación y acción de los pioneros del mercado, serán impulsores clave para llevar esta innovación a la madurez. Reddio ha dado un paso importante y audaz en este punto de convergencia, y esperamos ver más avances y sorpresas en este campo de integración en el futuro.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Resumen técnico de Reddio: de EVM paralelo a la narrativa de IA
Autor: Wuyue, Geek web3
En el rápido avance de la tecnología de la Cadena de bloques hoy en día, la optimización del rendimiento se ha convertido en un tema clave. La hoja de ruta de Ethereum es muy clara, centrándose en Rollup, mientras que la característica de procesamiento de transacciones en serie de EVM es una limitación y no puede satisfacer los futuros escenarios de cálculo de alta concurrencia.
En el artículo anterior, ‘El camino hacia la optimización de EVM paralela desde Reddio’, resumimos brevemente la idea de diseño de EVM paralela de Reddio. En este artículo, profundizaremos en su solución técnica y en la integración de escenarios con inteligencia artificial.
Debido a que la solución técnica de Reddio utiliza CuEVM, que es un proyecto que utiliza GPU para mejorar la eficiencia de ejecución de EVM, comenzaremos hablando de CuEVM.
Visión general de CUDA
CuEVM es un proyecto de aceleración de EVM con GPU que convierte los códigos de operación de ETH en EVM en núcleos de CUDA para ejecutar en paralelo en las GPU de NVIDIA. Mejora la eficiencia de ejecución de las instrucciones de EVM mediante la capacidad de cálculo paralelo de las GPU. Es posible que los usuarios de tarjetas gráficas NVIDIA escuchen con frecuencia la palabra CUDA.
Compute Unified Device Architecture,esto es en realidad una plataforma de cómputo paralelo y un modelo de programación desarrollado por NVIDIA. Permite a los desarrolladores utilizar la capacidad de cómputo paralelo de la GPU para cómputo general (por ejemplo, Minería en Crypto, cálculos ZK, etc.), en lugar de limitarse solo al procesamiento de gráficos.
Como un marco de cálculo en paralelo abierto, CUDA esencialmente es una extensión de los lenguajes C/C++, por lo que cualquier programador experimentado en programación de bajo nivel en C/C++ puede comenzar rápidamente. Un concepto muy importante en CUDA es el Kernel (función kernel), que también es un tipo de función en C++.
Pero a diferencia de las funciones regulares de C++, estas funciones de núcleo se ejecutan N veces de forma paralela por N hilos CUDA diferentes cuando se invoca la sintaxis <<<…>>>.
Cada hilo de CUDA se le asigna un identificador de hilo independiente y adopta una estructura jerárquica de hilos, asignando los hilos a bloques y cuadrículas para gestionar una gran cantidad de hilos en paralelo. Con el compilador nvcc de NVIDIA, podemos compilar el código de CUDA en un programa que se puede ejecutar en la GPU.
Proceso básico de trabajo de CuEVM
Una vez que haya entendido una serie de conceptos básicos de CUDA, puede echar un vistazo al flujo de trabajo de CuEVM.
La entrada principal de CuEVM es run_interpreter, desde donde se ingresan las transacciones a procesar en paralelo en formato de archivo JSON. A partir de los casos de uso del proyecto, se puede observar que se ingresan contenidos estándar de EVM, sin necesidad de que los desarrolladores los procesen o traduzcan por separado.
En run_interpreter() se puede ver que utiliza la sintaxis <<…>> definida en CUDA para llamar a la función de núcleo kernel_evm(). Como mencionamos anteriormente, las funciones de núcleo se llaman en paralelo en la GPU.
En el método kernel_evm() se llamará a evm->run(), y podemos ver que hay una gran cantidad de ramificaciones para convertir los códigos de operación EVM en operaciones CUDA.
Tomando como ejemplo el código de operación OP_ADD en EVM, se puede ver que convierte ADD en cgbn_add. Y CGBN (Cooperative Groups Big Numbers) es una biblioteca de operaciones aritméticas de múltiples precisión de alta performance para CUDA.
Estos dos pasos convierten los códigos de operación EVM en códigos de operación CUDA. Se puede decir que CuEVM es la implementación de todas las operaciones EVM en CUDA. Finalmente, el método run_interpreter() devuelve el resultado de la operación, es decir, el estado del mundo y otra información.
Hasta aquí, la lógica básica de operación de CuEVM ha sido completamente presentada.
CuEVM tiene la capacidad de procesar transacciones en paralelo, pero el propósito principal (o caso de uso principal) del proyecto CuEVM es realizar pruebas de Fuzzing: Fuzzing es una técnica de prueba de software automatizada que consiste en ingresar una gran cantidad de datos inválidos, inesperados o aleatorios al programa para observar su respuesta y detectar posibles errores y problemas de seguridad.
Podemos ver que el Fuzzing es muy adecuado para el procesamiento paralelo. CuEVM no se ocupa de problemas como conflictos de transacciones, ya que no es su preocupación. Si desea integrar CuEVM, también debe manejar transacciones conflictivas.
En nuestro artículo anterior, ‘Optimización del EVM paralelo desde Reddio’, ya hemos presentado el mecanismo de resolución de conflictos utilizado por Reddio, por lo que no entraremos en detalles aquí. Una vez que Reddio ha ordenado las transacciones utilizando el mecanismo de resolución de conflictos, se envían a CuEVM para su ejecución. En otras palabras, el mecanismo de ordenación de transacciones de la capa 2 de Reddio se puede dividir en dos partes: resolución de conflictos y ejecución paralela de CuEVM.
Layer2, Paralelismo EVM, la Encrucijada de la IA
El artículo anterior hablaba de cómo la EVM paralela y la L2 son solo el comienzo para Reddio, y su futuro plan incluirá una clara combinación con la narrativa de la inteligencia artificial. Reddio, que utiliza GPU para transacciones paralelas de alta velocidad, es naturalmente adecuado para el cálculo de inteligencia artificial en muchos aspectos.
Entonces, ¿cómo se combinan la IA y la capa 2?
Sabemos que en el diseño de la arquitectura de Rollup, en realidad no solo hay clasificadores en toda la red, sino también roles similares a supervisores y remitentes que validan o recopilan transacciones. Esencialmente, utilizan el mismo cliente que los clasificadores, pero desempeñan funciones diferentes. En el Rollup tradicional, las funciones y los permisos de estos roles secundarios son muy limitados, como el rol de observador en Arbitrum, que es principalmente defensivo y benéfico, pero su modelo de negocio también es cuestionable.
Reddio utilizará una arquitectura de clasificación Descentralización, con Minero proporcionando la GPU como Nodo. Toda la red de Reddio puede evolucionar de una simple L2 a una red integral L2 + AI, lo que permite implementar casos de uso de AI + Bloquear cadena:
La red de interacción básica de AI Agent
Con la continua evolución de la tecnología de Cadena de bloques, el potencial de aplicación de los agentes de IA en la red de Cadena de bloques es enorme. Tomemos como ejemplo los agentes de IA encargados de realizar transacciones financieras, estos agentes inteligentes pueden tomar decisiones complejas y ejecutar operaciones de transacción de forma autónoma, e incluso pueden reaccionar rápidamente en condiciones de alta frecuencia. Sin embargo, L1 es básicamente incapaz de soportar una carga de transacción tan grande al manejar este tipo de operaciones intensivas.
Como proyecto L2, Reddio puede mejorar significativamente la capacidad de procesamiento paralelo de transacciones mediante la aceleración GPU. En comparación con L1, L2 que admite la ejecución paralela de transacciones tiene una mayor capacidad de procesamiento, lo que permite manejar eficientemente las solicitudes de transacciones de alta frecuencia de muchos agentes de IA y garantizar el funcionamiento fluido de la red.
En el comercio de alta frecuencia, los requisitos de velocidad y tiempo de respuesta de los Agentes de IA son extremadamente exigentes. L2 reduce el tiempo de verificación y ejecución de las transacciones, lo que reduce significativamente la latencia. Esto es crucial para los Agentes de IA que necesitan responder en milisegundos. Al trasladar una gran cantidad de transacciones a L2, también se alivia efectivamente la congestión de la Mainnet. Esto hace que las operaciones de los Agentes de IA sean más económicas y eficientes.
Con el maduramiento de proyectos L2 como Reddio, AI Agent jugará un papel más importante en la cadena, impulsando la innovación en la combinación de Finanzas descentralizadas y otros casos de aplicación de la cadena con AI.
** DescentralizaciónPotencia computacional市场**
En el futuro, Reddio utilizará la arquitectura de ordenación Descentralización, donde los Mineros determinarán los derechos de ordenación utilizando Potencia computacional de GPU. El rendimiento de las GPU de los participantes de la red mejorará gradualmente con la competencia, incluso alcanzando el nivel utilizado para el entrenamiento de IA.
Construir un mercado de potencia computacional descentralizado para proporcionar recursos de potencia computacional de GPU de menor costo para el entrenamiento y la inferencia de AI. Desde la potencia computacional más pequeña, como la de una computadora personal, hasta la de un clúster de centro de datos, varios niveles de potencia computacional de GPU pueden unirse al mercado y contribuir con su potencia computacional inactiva para obtener ganancias. Este modelo puede soltar el costo de cálculo de AI y permitir que más personas participen en el desarrollo y aplicación de modelos de AI.
En los casos de uso de la DescentralizaciónPotencia computacional en el mercado, el clasificador puede no ser principalmente responsable de los cálculos directos de la IA, su función principal es procesar transacciones y coordinar la Potencia computacional de la IA en toda la red. Y en cuanto a la Potencia computacional y la asignación de tareas, hay dos modos aquí:
Podemos ver que en la arquitectura de L2 + AI, el mercado de Potencia computacional tiene una gran flexibilidad, puede reunir Potencia computacional desde dos direcciones y maximizar al máximo la utilización de los recursos.
on-chainAI推理
Actualmente, la madurez de los modelos de Código abierto es suficiente para satisfacer diversas necesidades. Con la estandarización de los servicios de inferencia de IA, es posible explorar cómo llevar Potencia computacional a la cadena para lograr una fijación de precios automatizada. Sin embargo, esto requiere superar varios desafíos técnicos:
Sin embargo, en la arquitectura de Reddio, todos estos problemas son relativamente fáciles de resolver:
Resumen
En general, las soluciones de Layer2, la EVM paralela y la tecnología de inteligencia artificial parecen no estar relacionadas entre sí, pero Reddio las combina de manera ingeniosa al aprovechar al máximo las características de cálculo de la GPU.
Reddio has improved transaction speed and efficiency on Layer 2 by leveraging the parallel computing capabilities of GPUs, enhancing the performance of the Ethereum on-chain. Integrating AI technology into blockchain is a novel and promising exploration. The introduction of AI can provide intelligent analysis and decision support for on-chain operations, enabling more intelligent and dynamic blockchain applications. This cross-domain integration undoubtedly opens up new paths and opportunities for the development of the entire industry.
Sin embargo, es importante tener en cuenta que este campo todavía está en sus primeras etapas y requiere mucha investigación y exploración. La constante iteración y optimización de la tecnología, así como la imaginación y acción de los pioneros del mercado, serán impulsores clave para llevar esta innovación a la madurez. Reddio ha dado un paso importante y audaz en este punto de convergencia, y esperamos ver más avances y sorpresas en este campo de integración en el futuro.