تواجه zkML التعلم الآلي القائم على المعرفة الصفرية تحديًا رئيسيًا في التطبيق: غالبًا ما تؤدي بيانات الإدخال إلى زيادة كبيرة في حجم الإثبات، مما يؤثر مباشرة على كفاءة النظام وقابليته للتوسع. وجدت بعض المشاريع حلًا من خلال تحسين عملية توليد الشاهد - من خلال إجراء معالجة مسبقة ذكية قبل توليد الإثبات، مما يقلل بشكل فعال من البيانات الزائدة، وبالتالي يضغط بشكل كبير على حجم الإثبات النهائي. تعتبر هذه الفكرة ذات أهمية كبيرة لتعزيز أداء الإثباتات القائمة على المعرفة الصفرية في التطبيقات العملية، خاصة في السيناريوهات الحساسة لتكاليف السلسلة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 10
أعجبني
10
8
إعادة النشر
مشاركة
تعليق
0/400
SchrodingerAirdrop
· منذ 8 س
يا إلهي، هذه هي الخطة التي تمتلك فعلاً فكرة، وليست مجرد تراكم تقنيات لعرض العضلات فقط
شاهد النسخة الأصليةرد0
NftBankruptcyClub
· منذ 15 س
هذه هي الطريق الصحيح، أخيرًا جاء من فكر في تحسين هذا الجانب، التكرار في البيانات مميت جدًا
شاهد النسخة الأصليةرد0
FarmToRiches
· منذ 15 س
ها، أخيرًا بدأ أحدهم في تحسين هذه المشكلة، كانت حجم الإثبات سابقًا حقًا كابوسًا
شاهد النسخة الأصليةرد0
NotFinancialAdviser
· منذ 15 س
آه يا إلهي، أخيرًا هناك من يتعامل مع مشكلة تكرار البيانات في zkML، هذا الشيء كان دائمًا مصدر قلقي بالنسبة لي
شاهد النسخة الأصليةرد0
LongTermDreamer
· منذ 15 س
ها، أليس هذا هو الاتجاه الذي كنا ننتظره دائمًا؟ منذ ثلاث سنوات قال البعض إن zkML سيغير كل شيء، ولكن الأمور كانت عالقة عند هذه الفكرة، والآن أخيرًا قام شخص ما بمعالجة الشهود بشكل جيد. بصراحة، عندما رأيت أن هناك مشاريع تعمل حقًا على جانب المعالجة المسبقة، كنت متحمسًا جدًا، على الرغم من أن ممتلكاتي هذا العام خسرت بشكل فظيع... لكن هذه الاختراقات في البنية التحتية هي تلك الأشياء التي يمكن أن تغير الأمور بعد ثلاث سنوات، هل تفهم؟
شاهد النسخة الأصليةرد0
SellLowExpert
· منذ 15 س
ها، أخيرًا هناك من يعمل على تحسين هذه النقطة المؤلمة، مشكلة الازدواجية في البيانات كانت موجودة هناك لفترة طويلة.
شاهد النسخة الأصليةرد0
MerkleDreamer
· منذ 15 س
واو، هذا هو الاتجاه الأمثل الذي كنت أبحث عنه، مشروع zkML السابق كان يعاني من عبء كبير في الإثبات مما أدى إلى فشله.
شاهد النسخة الأصليةرد0
LeekCutter
· منذ 15 س
هاها أخيرًا هناك من يفكر في هذا الأمر، إثبات التضخم كان دائمًا مشكلة مزمنة
تحسين فكرة الشاهد هذه فعلاً رائعة، إذا كان بالإمكان تقليل التكلفة داخل السلسلة يجب أن نخفضها
إذا كان بإمكان هذا الشيء حقًا أن يتم ضغطه، فإن احتمال تطبيق zkML سيزداد بشكل كبير
يبدو بسيطًا، لكن بالتأكيد ستواجه عددًا لا يحصى من العقبات عند التنفيذ
كيف يتم التعامل مع تفاصيل المعالجة المسبقة، أود أن أرى ما إذا كانت هناك أي عقبات
تواجه zkML التعلم الآلي القائم على المعرفة الصفرية تحديًا رئيسيًا في التطبيق: غالبًا ما تؤدي بيانات الإدخال إلى زيادة كبيرة في حجم الإثبات، مما يؤثر مباشرة على كفاءة النظام وقابليته للتوسع. وجدت بعض المشاريع حلًا من خلال تحسين عملية توليد الشاهد - من خلال إجراء معالجة مسبقة ذكية قبل توليد الإثبات، مما يقلل بشكل فعال من البيانات الزائدة، وبالتالي يضغط بشكل كبير على حجم الإثبات النهائي. تعتبر هذه الفكرة ذات أهمية كبيرة لتعزيز أداء الإثباتات القائمة على المعرفة الصفرية في التطبيقات العملية، خاصة في السيناريوهات الحساسة لتكاليف السلسلة.