Frecuentemente veo discusiones sobre AI en la cadena en comunidades de intercambio, pero la mayoría de los posts enfatizan lo avanzado que es el modelo y qué tan rápido realiza inferencias. Honestamente, estos puntos se desvían del tema principal.



La verdadera limitación de la AI en la cadena nunca ha sido el algoritmo o el hardware, sino dónde y cómo se almacenan los datos. Imagínate: ¿dónde deben almacenarse los resultados intermedios, los registros de inferencia y los conjuntos de datos de entrenamiento que genera una aplicación de AI en la cadena? ¿Cómo garantizar que los datos puedan ser accedidos en cualquier momento sin ser alterados o perdidos? Esa es la clave que determina el éxito o fracaso de todo el proyecto.

Recientemente, he visto algunos esquemas tecnológicos de proyectos emergentes y he encontrado algo interesante. La estrategia de un proyecto en particular es que, al almacenar cualquier archivo, automáticamente se dividen en más de 10 fragmentos de datos, que se distribuyen en diferentes nodos. Este número puede parecer arbitrario, pero en realidad está cuidadosamente calculado: significa que una falla en un solo punto casi no puede afectar al sistema.

Para las aplicaciones de AI en la cadena, este mecanismo es fundamental. Los enormes datos temporales generados durante el entrenamiento (que a menudo alcanzan TB) si se almacenan en servidores centralizados tradicionales, una falla en el servidor sería catastrófica. Pero con esta estructura de almacenamiento distribuido, los datos están integrados naturalmente en toda la red, lo que les confiere una resistencia inherente a riesgos. Desde un punto de vista de diseño, esto es como una infraestructura reservada específicamente para la operación a largo plazo de AI en la cadena.

Ver las estadísticas de uso reales puede ilustrar mejor el asunto. Datos recientes muestran que más del 30% de las solicitudes no son imágenes o videos tradicionales, sino conjuntos de datos estructurados, archivos de puntos de control del modelo e incluso registros de ejecución de inferencias. Este cambio en la estructura de datos valida que la AI en la cadena está comenzando a convertirse en un escenario central para ciertos proyectos. Quien pueda hacer que la infraestructura de almacenamiento de datos sea la más estable y eficiente, tendrá la posibilidad de liderar en esta carrera invisible.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 9
  • Republicar
  • Compartir
Comentar
0/400
FOMOmonstervip
· 01-10 12:24
Finalmente alguien ha llegado al punto clave, realmente estoy cansado de escuchar esas tonterías sobre modelos y potencia de cálculo. El almacenamiento es la clave, eso debería haberse valorado mucho antes. --- El sistema de almacenamiento distribuido es realmente genial, pero ¿hay algún proyecto que pueda mantenerlo funcionando de manera estable? Aún no he visto ningún caso que pueda considerarse convincente. --- Espera, ¿el 30% de las solicitudes son conjuntos de datos y registros? ¿De dónde provienen estos datos? ¿Hay alguna fuente? Parece un poco absurdo. --- Tienes razón, pero todavía me parece demasiado idealista. La implementación en proyectos reales no es tan sencilla. --- El almacenamiento distribuido de datos a nivel de TB suena genial, pero ¿pueden aceptar realmente la latencia y el costo? ¿O es solo otra solución teórica perfecta? --- La verdadera limitación de la IA en la cadena no es la velocidad, este enfoque es muy innovador, vale la pena profundizar. --- Guardar en 10 fragmentos dispersos... Entiendo la lógica, pero ¿qué pasa con la eficiencia de recuperación? Solo piensan en la recuperación ante desastres, ¿no han considerado la velocidad de consulta real?
Ver originalesResponder0
PrivacyMaximalistvip
· 01-09 18:30
Tienes razón, todos están hablando de cuántos parámetros tiene el modelo, pero en realidad no han capturado lo esencial. La fiabilidad del almacenamiento y de los datos es lo que realmente permitirá sobrevivir hasta el próximo año.
Ver originalesResponder0
OnChainArchaeologistvip
· 01-07 17:53
Finalmente alguien lo ha explicado claramente, después de tanto tiempo todavía se habla de la velocidad del modelo, qué risa El detalle de almacenar 10 fragmentos de forma dispersa es genial, una verdadera idea de infraestructura El 30% de las solicitudes son conjuntos de datos y registros, estos números lo dicen todo, quien sea estable será quien se lleve la parte del pastel
Ver originalesResponder0
UnluckyLemurvip
· 01-07 17:51
Una sola palabra, el almacenamiento es la verdadera barrera defensiva de la IA en la cadena, todos los que alardean de modelos y potencia de cálculo solo están disfrutando en su propia burbuja
Ver originalesResponder0
PositionPhobiavip
· 01-07 17:51
¡Ay, la almacenamiento de datos es realmente un punto débil que ha sido ignorado, no hay duda! En realidad, ya he visto suficiente esas charlas sobre modelos y potencia de cálculo, lo realmente importante es si la infraestructura puede soportar el peso. La lógica de almacenamiento fragmentado con más de 10+ fragmentos es realmente genial, un fallo en un solo punto lo invalida directamente... Este tipo de diseño es la verdadera diferencia que distingue a los caminos. El 30% del tráfico se transfiere de imágenes a conjuntos de datos y puntos de control de modelos, hablar con datos realmente es contundente. La competencia en infraestructura de almacenamiento > competencia en algoritmos, apoyo totalmente esa opinión.
Ver originalesResponder0
ZenZKPlayervip
· 01-07 17:48
De verdad, al principio también me dejé llevar por las discusiones sobre los parámetros del modelo y la velocidad de inferencia, ahora entiendo que el almacenamiento es la clave La lógica de almacenamiento descentralizado es realmente genial, dividir en 10 fragmentos en nodos dispersos fue una idea muy pensada, un fallo de un solo punto lo vuelve ineficaz Los datos son la clave del AI en la cadena, no esperaba que ya el 30% de las solicitudes sean datos estructurados, esa tasa de crecimiento es bastante rápida ¿Será demasiado tarde para comenzar a desplegarse en el sector del almacenamiento...?
Ver originalesResponder0
ponzi_poetvip
· 01-07 17:36
¡Por fin alguien ha dado en el clavo! El almacenamiento es realmente el cuello de botella El almacenamiento descentralizado es realmente impresionante, ¡tengo que dar un aplauso a la idea de dividir en 10 fragmentos en nodos dispersos! Una vez que el servidor centralizado con datos de TB se cae, todo termina; este riesgo es demasiado alto El 30% de las solicitudes son conjuntos de datos estructurados y archivos de modelos, estos datos lo dicen todo Los proyectos que hacen la base de almacenamiento de manera más sólida y eficiente realmente tienen la oportunidad de adelantar en curva
Ver originalesResponder0
ReverseTradingGuruvip
· 01-07 17:34
Lo has entendido, el almacenamiento de datos es la verdadera dificultad, todos los que alardean de la velocidad del modelo están generando ruido
Ver originalesResponder0
GateUser-6bc33122vip
· 01-07 17:29
Está bien, finalmente alguien ha tocado el punto sensible. Todos están hablando de lo impresionante que es el modelo, pero lo que realmente importa es el almacenamiento, que es la verdadera vulnerabilidad de Aquiles. La estrategia de almacenar 10 fragmentos dispersos es genial, inmuniza contra fallos en un solo punto, y puedes almacenar datos de TB a voluntad. El 30% de las solicitudes son datos estructurados, lo que indica que la IA en la cadena ya ha comenzado a ser práctica, ya no solo proyectos en PPT. Quien estabilice la infraestructura de almacenamiento, será el último ganador.
Ver originalesResponder0
Ver más
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)