العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
MiniMax M2.7 يجلب نموذج ذكاء اصطناعي ب230 مليار معلمة إلى بنية NVIDIA
تيد هيسوكاوا
12 أبريل 2026 01:37
أصدرت شركة MiniMax نسخة M2.7، وهي نموذج مختلط من الخبراء بوزن 230 مليار معلمة محسّن لوحدات معالجة الرسومات من NVIDIA مع زيادات في الإنتاجية تصل إلى 2.7 ضعف على أجهزة بلاكويل.
أصدرت شركة MiniMax نموذج M2.7، وهو نموذج ذكاء اصطناعي مفتوح الوزن بوزن 230 مليار معلمة مصمم خصيصًا لعمليات الوكيل المستقلة، متاح الآن عبر نظام استنتاج NVIDIA بما في ذلك أحدث وحدات معالجة الرسومات بلاكويل ألترا.
يمثل النموذج خطوة هامة نحو الكفاءة في الذكاء الاصطناعي المؤسسي. على الرغم من حجمه الهائل الذي يبلغ 230 مليار معلمة، فإن M2.7 ينشط فقط 10 مليارات معلمة لكل رمز—معدل تفعيل بنسبة 4.3% يتم تحقيقه من خلال بنية مختلط من الخبراء (MoE) مع 256 خبير محلي. هذا يحافظ على تكاليف الاستنتاج مع الحفاظ على قدرة التفكير لنموذج أكبر بكثير.
أرقام الأداء على بلاكويل
تعاونت NVIDIA مع مجتمعات المصادر المفتوحة لتحسين M2.7 لأعباء العمل الإنتاجية. أدت تحسينات رئيسية—نواة دمج QK RMS Norm ودمج FP8 MoE من TensorRT-LLM—إلى تحسينات كبيرة في الإنتاجية على وحدات معالجة الرسومات بلاكويل ألترا.
اختبار باستخدام مجموعة بيانات بطول تسلسل إدخال/إخراج 1K/1K أظهر أن vLLM حقق زيادة في الإنتاجية تصل إلى 2.5 ضعف، بينما حقق SGLang زيادة قدرها 2.7 ضعف. تم تنفيذ كلا التحسينين خلال شهر واحد، مما يشير إلى وجود مجال لتحسين الأداء أكثر.
الهيكلية التقنية
يدعم M2.7 طول سياق إدخال يصل إلى 200 ألف عبر 62 طبقة، باستخدام انتباه ذاتي سببي متعدد الرؤوس مع تضمينات موضعية دوارة (RoPE). آلية توجيه الخبراء من نوع top-k تنشط فقط 8 من الخبراء الـ256 لأي إدخال معين، وهو ما يحافظ على انخفاض تكاليف الاستنتاج رغم حجمه.
يستهدف الهيكل تحديات الترميز والمهام المعقدة التي تتطلب وكيلًا—وهو سير عمل حيث تحتاج أنظمة الذكاء الاصطناعي إلى التخطيط والتنفيذ والتكرار بشكل مستقل بدلاً من الاستجابة لموجه واحد.
خيارات النشر
يمكن للمطورين الوصول إلى M2.7 عبر قنوات متعددة. يوفر إطار عمل NemoClaw من NVIDIA نشرًا بنقرة واحدة لتشغيل وكلاء مستقلين باستخدام بيئة OpenShell. النموذج متاح أيضًا من خلال حاويات NIM من NVIDIA للخدمات المصغرة المعبأة للحوسبة المحلية أو السحابية أو الهجينة.
للفرق التي ترغب في تخصيص النموذج، يدعم مكتبة NeMo AutoModel من NVIDIA التخصيص الدقيق باستخدام وصفات منشورة. تتوفر سير عمل التعلم المعزز من خلال NeMo RL مع تكوينات عينة لطول تسلسل 8K و16K.
تتيح نقاط النهاية المعززة بواسطة GPU المجانية على build.nvidia.com الاختبار قبل الالتزام بالبنية التحتية. كما تتوفر الأوزان المفتوحة على Hugging Face للنشر الذاتي.
تضع النسخة الجديدة MiniMax كبديل موثوق به للنماذج المغلقة من OpenAI وAnthropic للمؤسسات التي تبني أنظمة ذكاء اصطناعي مستقلة، خاصة تلك التي استثمرت بالفعل في بنية NVIDIA التحتية.
مصدر الصورة: Shutterstock