zkML học máy không biết đã phải đối mặt với một thách thức quan trọng trong ứng dụng: dữ liệu đầu vào thường dẫn đến quy mô chứng minh bị phình ra đáng kể, điều này trực tiếp ảnh hưởng đến hiệu suất và khả năng mở rộng của hệ thống. Một số dự án đã tìm ra giải pháp bằng cách tối ưu hóa quy trình tạo witness - thực hiện tiền xử lý thông minh trước khi tạo chứng minh, hiệu quả giảm thiểu dữ liệu dư thừa, từ đó nén kích thước chứng minh cuối cùng một cách đáng kể. Cách tiếp cận này có ý nghĩa quan trọng trong việc nâng cao hiệu suất của chứng minh không biết trong các ứng dụng thực tế, đặc biệt là trong các tình huống nhạy cảm với chi phí trên chuỗi.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
8
Đăng lại
Retweed
Bình luận
0/400
SchrodingerAirdrop
· 5giờ trước
Chết rồi, đây mới là giải pháp thực sự có ý tưởng chứ không phải chỉ đơn thuần là tích tụ công nghệ để khoe cơ bắp
Xem bản gốcTrả lời0
NftBankruptcyClub
· 12giờ trước
Đây mới là con đường chính đáng, cuối cùng cũng có người nghĩ đến việc tối ưu hóa phần này, dữ liệu thừa thãi quá gây chết người
Xem bản gốcTrả lời0
FarmToRiches
· 12giờ trước
Haha, cuối cùng cũng có người đang tối ưu hóa điểm đau này, trước đây kích thước chứng minh thực sự là một cơn ác mộng
Xem bản gốcTrả lời0
NotFinancialAdviser
· 12giờ trước
Ồ, cuối cùng cũng có người quan tâm đến vấn đề dư thừa dữ liệu của zkML rồi, thứ này luôn là nỗi lòng của tôi
Xem bản gốcTrả lời0
LongTermDreamer
· 12giờ trước
Ha, đây không phải là hướng tối ưu mà chúng ta一直 chờ đợi sao? Ba năm trước đã có người nói rằng zkML sẽ thay đổi mọi thứ, nhưng lại bị kẹt ở điểm này, giờ cuối cùng đã có người xử lý tốt witness. Nói thật, khi thấy có dự án thực sự đang làm việc với phần tiền xử lý này, tôi vẫn khá hào hứng, mặc dù số Nắm giữ của tôi năm nay lỗ thê thảm... nhưng sự đột phá cơ sở hạ tầng này chính là những thứ có thể lật ngược tình thế sau ba năm, hiểu không?
Xem bản gốcTrả lời0
SellLowExpert
· 12giờ trước
Ha, cuối cùng cũng có người tối ưu hóa điểm đau này, vấn đề dữ liệu dư thừa đã tồn tại quá lâu.
Xem bản gốcTrả lời0
MerkleDreamer
· 13giờ trước
Hả, đây mới là hướng tối ưu mà tôi muốn thấy, dự án zkML trước đây chính vì proof quá cồng kềnh mà trực tiếp bơm.
Xem bản gốcTrả lời0
LeekCutter
· 13giờ trước
Haha cuối cùng cũng có người nghiên cứu về việc này, chứng minh rằng sự mở rộng luôn là một căn bệnh khó chữa
Cách tối ưu hóa witness thật sự rất tuyệt, nếu có thể tiết kiệm chi phí trên chuỗi thì phải tiết kiệm
Nếu thứ này thực sự có thể nén lại, xác suất để zkML hiện thực hóa cũng cao lên rất nhiều
Nghe có vẻ đơn giản, nhưng khi thực hiện chắc chắn sẽ gặp phải vô số cạm bẫy
Chi tiết về tiền xử lý rốt cuộc sẽ được thực hiện như thế nào, muốn xem có cạm bẫy nào không.
zkML học máy không biết đã phải đối mặt với một thách thức quan trọng trong ứng dụng: dữ liệu đầu vào thường dẫn đến quy mô chứng minh bị phình ra đáng kể, điều này trực tiếp ảnh hưởng đến hiệu suất và khả năng mở rộng của hệ thống. Một số dự án đã tìm ra giải pháp bằng cách tối ưu hóa quy trình tạo witness - thực hiện tiền xử lý thông minh trước khi tạo chứng minh, hiệu quả giảm thiểu dữ liệu dư thừa, từ đó nén kích thước chứng minh cuối cùng một cách đáng kể. Cách tiếp cận này có ý nghĩa quan trọng trong việc nâng cao hiệu suất của chứng minh không biết trong các ứng dụng thực tế, đặc biệt là trong các tình huống nhạy cảm với chi phí trên chuỗi.