أعلن قسم Tether’s QVAC في 17 مارس 2026 عن إطلاق أول إطار عمل لضبط Fine-tuning لنموذج LoRA عبر المنصات المختلفة لنماذج BitNet من مايكروسوفت (نماذج LLM ذات 1 بت)، مما يتيح تدريب واستنتاج الذكاء الاصطناعي بعدد مليارات المعلمات على وحدات معالجة الرسومات للمستهلكين والهواتف الذكية.
يُدمج الإطار، المدمج في QVAC Fabric، ويقلل من متطلبات الذاكرة والحساب بشكل كافٍ لضبط نماذج تصل إلى 13 مليار معلمة على أجهزة تشمل iPhone 16 و Galaxy S25 و Pixel 9، مع إمكانية تدريب نماذج 125 مليون معلمة في حوالي 10 دقائق على الأجهزة المحمولة.
يمثل الإصدار خطوة مهمة في تحول استراتيجية Tether من إصدار العملات المستقرة إلى مزود بنية تحتية أوسع، متحديًا نموذج تطوير الذكاء الاصطناعي المركزي الذي تهيمن عليه مزودات السحابة والأجهزة المتخصصة من NVIDIA.
يُمكن إطار عمل QVAC Fabric من ضبط Fine-tuning وتسريع الاستنتاج لنموذج LoRA (التكيف ذو الرتبة المنخفضة) عبر أجهزة المستهلك غير المتجانسة، بما في ذلك:
بطاقات الرسوميات المكتبية: AMD، Intel، وNVIDIA
نظام Apple: شرائح Apple Silicon M وBionic للهواتف المحمولة
بطاقات الرسوميات المحمولة: Adreno (سامسونج)، Mali، وغيرها
تُزيل هذه التوافقية الواسعة الحاجة السابقة إلى أنظمة NVIDIA ذات المستوى المؤسساتي أو البنية التحتية السحابية، التي كانت تركز تطوير الذكاء الاصطناعي بين المؤسسات ذات الميزانيات الخاصة بالأجهزة المتخصصة.
أظهر فريق هندسة Tether نجاحًا في ضبط النماذج على الهواتف الذكية الرائدة مع النتائج التالية:
نماذج 125 مليون معلمة: يتم ضبطها على Samsung Galaxy S25 (بطاقة Adreno) خلال حوالي 10 دقائق لمجموعة بيانات طبية حيوية تتكون من حوالي 300 وثيقة (حوالي 18 ألف رمز)
نماذج 1 مليار معلمة: يتم ضبطها على نفس البيانات خلال ساعة و18 دقيقة على Samsung S25 و ساعة و45 دقيقة على iPhone 16
السعة القصوى: تم ضبط نماذج تصل إلى 13 مليار معلمة بنجاح على iPhone 16، متجاوزة قدرات الأجهزة الطرفية التقليدية التي عادةً لا تتجاوز 3 مليارات معلمة
يُظهر BitNet تسريعًا كبيرًا في استنتاج النماذج على وحدات معالجة الرسوميات المحمولة مقارنةً بالخطوط الأساسية للـ CPU:
تحسين السرعة: أداء GPU أسرع بين مرتين و11 مرة من CPU عبر الأجهزة المختبرة
التطبيق العملي: يمكن الآن لوحدات معالجة الرسوميات المحمولة دعم أعباء العمل التي كانت تتطلب سابقًا أجهزة متخصصة أو مراكز بيانات مكلفة
تُظهر المقاييس توفيرًا كبيرًا في الذاكرة مقارنةً بالنماذج التقليدية:
BitNet-1B (TQ1_0): يستخدم حتى 77.8% أقل من VRAM مقارنة بـ Gemma-3-1B (بت 16)
مقارنة بـ Qwen3-0.6B: أقل بنسبة 65.6% من VRAM مقارنة بالإصدار 16-بت
تُطبق هذه التخفيضات على كل من أعباء العمل الخاصة بالاستنتاج وFine-tuning، مما يخلق مساحة ذاكرة مهمة لنماذج أكبر وعمليات التخصيص على الأجهزة التي كانت تعتبر سابقًا غير كافية.
يُمكن الإطار من ضبط نماذج أكبر مرتين على الأجهزة الطرفية مقارنةً بنماذج Q4 غير-BitNet، مما يبرز كفاءة الذاكرة المتفوقة لبنية BitNet.
قال الرئيس التنفيذي لـ Tether، باولو أردوينو، إن الإصدار يأتي ضمن رؤية أوسع للذكاء الاصطناعي المتاح للجميع: “الذكاء سيكون عاملًا رئيسيًا في مستقبل المجتمع. عندما يعتمد تدريب نماذج اللغة الكبيرة على بنية تحتية مركزية، يتوقف الابتكار، ويصبح النظام هشًا، ويُعرض التوازن المجتمعي للخطر. من خلال تمكين تدريب نماذج كبيرة على أجهزة المستهلك، بما في ذلك الهواتف الذكية، تثبت Tether’s QVAC أن الذكاء الاصطناعي المتقدم يمكن أن يكون لامركزيًا، شاملاً، ويمكّن الجميع.”
تُحقق الكفاءات المكتسبة إمكانية التعلم الفيدرالي، مما يسمح بتدريب وتبادل التحديثات المُحسنة عبر أجهزة موزعة مع الحفاظ على البيانات الحساسة محليًا، مما يقلل الاعتماد على البنية التحتية المركزية ويدعم تحسين النماذج بشكل تعاوني.
من خلال تقليل الاعتماد على مزودي السحابة، يُمكن الإطار المستخدمين من الاحتفاظ بالبيانات الحساسة على أجهزتهم أثناء عملية الضبط، مما يعالج مخاوف الخصوصية المرتبطة بنقل البيانات إلى الخوادم المركزية.
يُواجه إصدار Tether مباشرة النموذج المركزي لتطوير الذكاء الاصطناعي الذي تهيمن عليه الشركات الكبرى ومزودات السحابة. من خلال تمكين العمل الذكي على الأجهزة المستهلكة، تضع الشركة نفسها كلاعب في بنية الذكاء الاصطناعي على الحافة، مستقلًا عن السلطات السحابية التقليدية.
يتوفر الإطار، بما في ذلك الورقة العلمية، والمحولات، والمعايير، والملفات الثنائية عبر المنصة Hugging Face. يهدف هذا النهج مفتوح المصدر إلى جعل QVAC مسارًا افتراضيًا للمطورين المستقلين والمختبرات الصغيرة لنشر الذكاء الاصطناعي على أجهزة المستهلك، وبناء أهمية ثقافية وتقنية خارج الأطر التنظيمية التقليدية.
يستمر الإصدار في توسيع أنشطة Tether من إصدار العملات المستقرة إلى البنية التحتية الرقمية الحيوية، بعد مبادرات QVAC السابقة التي شملت مجموعة بيانات Genesis I التي تحتوي على 41 مليار رمز وبيئة العمل المحلية للذكاء الاصطناعي. أشارت الشركة إلى استمرار الاستثمار في بنية تحتية لامركزية للذكاء الاصطناعي خلال الأسابيع والأشهر والسنوات القادمة.
توفر الوثائق التقنية الكاملة، بما في ذلك معايير الأداء، وتفاصيل التنفيذ، والملفات الثنائية عبر المنصة Hugging Face: “Fine-Tuning LoRA BitNet b1.58 على نماذج LLM غير متجانسة على وحدات معالجة الرسوميات الطرفية عبر QVAC Fabric.”
تصف Tether مهمتها في تعزيز الحرية والشفافية والابتكار من خلال التكنولوجيا، وتمكين تبادل المعلومات المباشر بين الأقران دون وسطاء غير ضروريين. تهدف الشركة إلى استبدال النماذج المركزية بالبنية التحتية اللامركزية المصممة للخصوصية والكفاءة والمرونة.
يدعم إطار عمل QVAC Fabric BitNet LoRA وحدات معالجة الرسوميات للمستهلكين من AMD وIntel وNVIDIA؛ ونظام Apple بما في ذلك شرائح Silicon M وBionic للهواتف المحمولة؛ وبطاقات الرسوميات المحمولة مثل Adreno (سامسونج) وMali وغيرها. يتيح ذلك ضبط الذكاء الاصطناعي على أجهزة اللابتوب، وأجهزة الكمبيوتر المكتبية، والهواتف الرائدة دون الحاجة إلى أجهزة مؤسسية متخصصة.
وفقًا لمقاييس Tether، يعمل استنتاج GPU على الأجهزة المحمولة الرائدة بين مرتين و11 مرة أسرع من خط الأساس للـ CPU. كما أن استهلاك الذاكرة ينخفض بنسبة تصل إلى 77.8% مقارنةً بالنماذج التقليدية، مما يتيح تشغيل نماذج أكبر ضمن قيود الأجهزة ذاتها.
يُعد ضبط نموذج بـ13 مليار معلمة على هاتف ذكي نقلة نوعية عن العروض التقليدية للذكاء الاصطناعي على الأجهزة، والتي غالبًا ما تركز على نماذج أقل من 3 مليارات معلمة أو تعتمد على تحميل الأعباء الثقيلة إلى السحابة. تشير هذه القدرة إلى مستقبل يمكن فيه تخصيص النماذج بشكل جدي وتكييفها بشكل خاص للمجالات محليًا، دون الحاجة لإرسال بيانات المستخدم إلى الخوادم المركزية.