zkML нуль-знаннєве машинне навчання стикається з ключовим викликом у застосуванні: вхідні дані часто призводять до значного розширення обсягу доказів, що безпосередньо впливає на ефективність і масштабованість системи. Деякі проекти знайшли рішення, оптимізувавши процес генерації свідчень — проведення розумної попередньої обробки перед створенням доказу, що ефективно зменшує надмірні дані і таким чином значно стискає обсяг фінального доказу. Такий підхід має важливе значення для підвищення продуктивності нуль-знаннєвих доказів у реальних застосуваннях, особливо в ситуаціях, чутливих до витрат на ланцюгу.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 8
  • Репост
  • Поділіться
Прокоментувати
0/400
SchrodingerAirdropvip
· 9год тому
Вау, це справді продумане рішення, а не просто нагромадження технологій для показу м'язів
Переглянути оригіналвідповісти на0
NftBankruptcyClubvip
· 16год тому
Це справжній шлях, нарешті хтось подумав про оптимізацію цієї частини, надмірність даних надто руйнівна
Переглянути оригіналвідповісти на0
FarmToRichesvip
· 17год тому
Ха, нарешті хтось почав оптимізувати цю проблему, раніше обсяг доказів дійсно був кошмаром
Переглянути оригіналвідповісти на0
NotFinancialAdviservip
· 17год тому
Ой, нарешті хтось займається проблемою дублікатів даних у zkML, це завжди була моя головна турбота
Переглянути оригіналвідповісти на0
LongTermDreamervip
· 17год тому
Га, це ж оптимізаційний напрямок, якого ми всі чекали, чи не так? Три роки тому вже говорили, що zkML змінить усе, а в результаті застрягли на цій ідеї, а зараз нарешті хтось добре обробив witness. Якщо чесно, мені справді цікаво бачити, що проєкти займаються попередньою обробкою, хоч мої активи цього року втратили багато... але цей прорив у інфраструктурі - це те, що може перевернути ситуацію за три роки, розумієш?
Переглянути оригіналвідповісти на0
SellLowExpertvip
· 17год тому
Га, нарешті хтось оптимізує цю проблему, проблема надмірності даних залишалася занадто довго.
Переглянути оригіналвідповісти на0
MerkleDreamervip
· 17год тому
О, це якраз те, що я хотів побачити в плані оптимізації! Попередній проект zkML просто провалився через занадто громіздкий proof.
Переглянути оригіналвідповісти на0
LeekCuttervip
· 17год тому
Ха-ха, нарешті хтось зайнявся цим, доведення розширення завжди було серйозною проблемою оптимізація свідка дійсно геніальна, у блокчейні витрати, які можна зекономити, потрібно зекономити якщо це справді вдасться стиснути, ймовірність впровадження zkML значно зросте здається простим, але в реалізації напевно буде безліч підводних каменів як саме реалізувати деталі попередньої обробки, цікаво, чи є там якісь пастки
Переглянути оригіналвідповісти на0
  • Закріпити