La aprendizaje automático de cero conocimiento (zkML) enfrenta un desafío clave en su aplicación: los datos de entrada a menudo provocan una expansión significativa en la escala de las pruebas, lo que afecta directamente la eficiencia y escalabilidad del sistema. Algunos proyectos han encontrado soluciones al optimizar el proceso de generación de testigos: realizando un preprocesamiento inteligente antes de la generación de pruebas, lo que reduce efectivamente los datos redundantes y comprime significativamente el tamaño de la prueba final. Esta idea es de gran importancia para mejorar el rendimiento de las pruebas de cero conocimiento en aplicaciones prácticas, especialmente en escenarios donde los costos en la cadena son sensibles.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 8
  • Republicar
  • Compartir
Comentar
0/400
SchrodingerAirdropvip
· hace4h
Vaya, esta es realmente una propuesta con ideas, no solo una acumulación de tecnología para lucirse.
Ver originalesResponder0
NftBankruptcyClubvip
· hace11h
Esta es la verdadera vía, finalmente alguien ha pensado en optimizar esto, la redundancia de datos es demasiado peligrosa
Ver originalesResponder0
FarmToRichesvip
· hace12h
¡Ja! Finalmente alguien está optimizando este problema, la prueba de tamaño era realmente una pesadilla antes.
Ver originalesResponder0
NotFinancialAdviservip
· hace12h
¡Vaya! Finalmente alguien está abordando el problema de redundancia de datos en zkML. Esto siempre ha sido una preocupación para mí.
Ver originalesResponder0
LongTermDreamervip
· hace12h
Ja, ¿no es esta la dirección de optimización que hemos estado esperando? Hace tres años ya había gente diciendo que zkML cambiaría todo, pero se estancó en esta idea, ahora finalmente hay alguien que ha manejado bien el testigo. A decir verdad, ver que hay proyectos realmente trabajando en el preprocesamiento me emociona bastante, aunque mis Tenencias este año han perdido un montón... pero este tipo de avances en infraestructura son justamente lo que puede dar la vuelta en tres años, ¿entiendes?
Ver originalesResponder0
SellLowExpertvip
· hace12h
Ha, finalmente alguien está optimizando este punto doloroso, el problema de la redundancia de datos ha estado ahí demasiado tiempo.
Ver originalesResponder0
MerkleDreamervip
· hace12h
Vaya, ¡eso es lo que quería ver, un enfoque de optimización! El proyecto zkML anterior simplemente fracasó porque la prueba era demasiado voluminoso y directamente bomba.
Ver originalesResponder0
LeekCuttervip
· hace12h
Jaja, finalmente alguien ha estado pensando en esto, la prueba de expansión siempre ha sido un problema persistente. Optimizar esta idea de testigo es realmente genial, y si se puede ahorrar en costos on-chain, hay que hacerlo. Si esto realmente se puede comprimir, la probabilidad de que zkML se implemente ha aumentado considerablemente. Suena simple, pero al implementarlo seguramente habrá innumerables tropiezos. ¿Cómo se manejan exactamente los detalles del preprocesamiento? Quiero ver si hay trampas.
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)