zkML нулевое знание машинного обучения сталкивается с ключевой проблемой в приложениях: входные данные часто приводят к значительному увеличению размера доказательства, что напрямую влияет на эффективность и масштабируемость системы. Некоторые проекты нашли решение, оптимизировав процесс генерации свидетелей — проводя интеллектуальную предварительную обработку перед созданием доказательства, что эффективно уменьшает избыточные данные и значительно сжимает объем конечного доказательства. Этот подход имеет важное значение для повышения производительности нулевых доказательств в реальных приложениях, особенно в сценариях, чувствительных к затратам на цепочке.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
8
Репост
Поделиться
комментарий
0/400
SchrodingerAirdrop
· 9ч назад
Вот это действительно продуманное решение, а не просто набор технологий для демонстрации мощи.
Посмотреть ОригиналОтветить0
NftBankruptcyClub
· 16ч назад
Это правильный путь, наконец-то кто-то подумал об оптимизации, избыточность данных слишком опасна
Посмотреть ОригиналОтветить0
FarmToRiches
· 17ч назад
Ха, наконец-то кто-то начал оптимизировать эту проблему, ранее объем доказательства действительно был кошмаром
Посмотреть ОригиналОтветить0
NotFinancialAdviser
· 17ч назад
Ох, наконец-то кто-то занимается проблемой избыточности данных в zkML, это всегда была моя головная боль
Посмотреть ОригиналОтветить0
LongTermDreamer
· 17ч назад
Ха, разве это не то направление оптимизации, которого мы все ждали? Три года назад кто-то говорил, что zkML изменит все, но застряли на этой идее, а теперь кто-то наконец-то хорошо справился с обработкой свидетелей. Честно говоря, мне действительно приятно видеть, что проекты работают над этой частью предварительной обработки, хотя мои активы в этом году потеряли все. Но такие прорывы в инфраструктуре — это то, что может перевернуть ситуацию через три года, понимаешь?
Посмотреть ОригиналОтветить0
SellLowExpert
· 17ч назад
Ха, наконец-то кто-то оптимизирует эту проблему, проблема избыточности данных слишком долго оставалась нерешенной.
Посмотреть ОригиналОтветить0
MerkleDreamer
· 17ч назад
Вот это я и хотел увидеть в плане оптимизации, предыдущий проект zkML просто провалился из-за слишком громоздкого proof.
Посмотреть ОригиналОтветить0
LeekCutter
· 17ч назад
Ха-ха, наконец-то кто-то задумался об этом, доказательство раздувания всегда было серьезной проблемой.
Оптимизация свидетелей действительно гениальна, в блокчейне нужно экономить на затратах, где только возможно.
Если это действительно можно сжать, вероятность реализации zkML значительно возрастает.
Звучит просто, но при реализации, конечно, будет множество подводных камней.
Как именно обстоят дела с деталями предобработки, хочу посмотреть, есть ли там подводные камни.
zkML нулевое знание машинного обучения сталкивается с ключевой проблемой в приложениях: входные данные часто приводят к значительному увеличению размера доказательства, что напрямую влияет на эффективность и масштабируемость системы. Некоторые проекты нашли решение, оптимизировав процесс генерации свидетелей — проводя интеллектуальную предварительную обработку перед созданием доказательства, что эффективно уменьшает избыточные данные и значительно сжимает объем конечного доказательства. Этот подход имеет важное значение для повышения производительности нулевых доказательств в реальных приложениях, особенно в сценариях, чувствительных к затратам на цепочке.