Dalam pengembangan model AI, pelatihan large language model biasanya membutuhkan perangkat keras dan sumber daya cloud yang mahal, sehingga teknologi ini hanya dikuasai segelintir institusi besar.
(Sumber: Tether)
Peluncuran QVAC Fabric oleh Tether baru-baru ini menghadirkan framework fine-tuning LoRA yang dirancang khusus untuk BitNet (large language model 1-bit). Inovasi ini secara signifikan menurunkan kebutuhan komputasi dan memori, sehingga pengguna biasa kini dapat berpartisipasi dalam pelatihan model AI.
Keunggulan utama QVAC Fabric adalah kompatibilitas perangkat keras yang luas. Framework ini dapat berjalan di berbagai perangkat, termasuk:
Laptop
GPU konsumen (Intel, AMD, Apple Silicon)
Smartphone (termasuk berbagai GPU seluler)
Artinya, model AI kini tidak lagi terbatas pada data center atau perangkat keras khusus—model dapat dilatih dan dijalankan langsung di perangkat sehari-hari.
Salah satu fitur unggulan teknologi ini adalah kemampuannya melakukan fine-tuning model langsung di perangkat seluler.
Contohnya:
Pada Samsung S25 (GPU Adreno), model 125 juta parameter dapat di-fine-tune dalam sekitar 10 menit
Pada perangkat yang sama, model 1 miliar parameter membutuhkan sekitar 1 jam 18 menit
Pada iPhone 16, model 1 miliar parameter memerlukan sekitar 1 jam 45 menit
Tim bahkan telah berhasil menjalankan model hingga 13 miliar parameter di smartphone, menandakan pesatnya perkembangan kemampuan AI pada perangkat seluler.
Dibandingkan model konvensional, arsitektur BitNet menawarkan keunggulan nyata dalam performa dan efisiensi sumber daya:
Kecepatan inferensi GPU seluler 2 hingga 11 kali lebih cepat dibanding CPU
Mampu menangani beban kerja yang sebelumnya hanya dapat dilakukan di data center
Mengurangi penggunaan VRAM hingga sekitar 77,8% dibanding model 16-bit
Memberikan kapasitas operasional lebih besar, mendukung model yang lebih besar dan aplikasi yang dipersonalisasi
Peningkatan ini membuat penerapan aplikasi AI pada perangkat edge menjadi jauh lebih mudah.
Pelatihan AI tradisional sangat bergantung pada perangkat keras NVIDIA dan layanan cloud. QVAC Fabric menghilangkan ketergantungan ini dengan memungkinkan fine-tuning LoRA LLM 1-bit pada perangkat non-NVIDIA—termasuk AMD, Intel, Apple Silicon, dan GPU seluler seperti Adreno dan Mali. Perubahan ini tidak hanya menurunkan biaya, tetapi juga mendorong pengembangan AI yang lebih terdesentralisasi.
Manfaat utama lain dari QVAC Fabric adalah dukungannya terhadap privasi data dan pembelajaran terdistribusi:
Pelatihan model dapat dilakukan secara lokal tanpa perlu mengunggah data sensitif
Mendukung federated learning
Mengurangi ketergantungan pada infrastruktur terpusat
Fitur-fitur ini mengarahkan ekosistem AI menuju masa depan yang lebih aman dan skalabel.
Paolo Ardoino menegaskan bahwa AI akan berperan penting dalam masyarakat di masa depan, dan perkembangannya tidak boleh dimonopoli oleh segelintir pemilik sumber daya. Ia menekankan bahwa ketergantungan berlebihan pada arsitektur terpusat dalam pelatihan AI tidak hanya menghambat inovasi, tetapi juga mengancam stabilitas ekosistem secara keseluruhan. Memungkinkan AI berjalan di perangkat pribadi menjadi langkah penting menuju adopsi yang lebih luas.
QVAC Fabric dari Tether bukan hanya inovasi teknologi, melainkan juga potensi transformasi dalam model pengembangan AI. Dengan menurunkan hambatan perangkat keras dan memperkuat kemampuan lintas platform, large language model kini bergerak keluar dari data center dan hadir di perangkat sehari-hari. Seiring teknologi ini terus berkembang, AI siap beralih dari sumber daya terpusat menuju masa depan yang lebih terbuka, terdesentralisasi, dan dapat diakses oleh lebih banyak pihak.





