Banyak masalah terbesar dari proyek AI di atas rantai adalah, bukan karena model yang tidak cukup kuat, tetapi karena kontrak pintar sama sekali tidak mampu menilai apakah hasil penalaran dapat diandalkan. Setelah hasil tidak dapat diverifikasi, AI hanya dapat tetap sebagai alat bantu.
@inference_labs menjawab tantangan ini dengan membangun infrastruktur penalaran yang dapat diverifikasi, memecah proses eksekusi penalaran, pembuatan hasil, dan proses verifikasi ke dalam kerangka yang dapat diaudit.
Dengan cara ini, yang dipanggil oleh kontrak bukan lagi output AI yang bergantung pada kepercayaan tunggal, tetapi hasil perhitungan yang telah diverifikasi dan dibatasi, sehingga AI benar-benar memiliki kondisi untuk berpartisipasi dalam logika di atas rantai dan pengambilan keputusan otomatis.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Banyak masalah terbesar dari proyek AI di atas rantai adalah, bukan karena model yang tidak cukup kuat, tetapi karena kontrak pintar sama sekali tidak mampu menilai apakah hasil penalaran dapat diandalkan. Setelah hasil tidak dapat diverifikasi, AI hanya dapat tetap sebagai alat bantu.
@inference_labs menjawab tantangan ini dengan membangun infrastruktur penalaran yang dapat diverifikasi, memecah proses eksekusi penalaran, pembuatan hasil, dan proses verifikasi ke dalam kerangka yang dapat diaudit.
Dengan cara ini, yang dipanggil oleh kontrak bukan lagi output AI yang bergantung pada kepercayaan tunggal, tetapi hasil perhitungan yang telah diverifikasi dan dibatasi, sehingga AI benar-benar memiliki kondisi untuk berpartisipasi dalam logika di atas rantai dan pengambilan keputusan otomatis.