أطلقت DeepSeek النسخة التجريبية المفتوحة المصدر V4، وحصلت على درجة تقنية 3206 متفوقة على GPT-5.4

DeepSeek V4開源預覽版

أطلقت DeepSeek رسميًا سلسلة المعاينة V4 في 24 أبريل، مع طرح أوزان النموذج مفتوحة المصدر بموجب ترخيص MIT، وقد تم رفع أوزان النماذج إلى كلٍّ من Hugging Face وModelScope. وفقًا للتقرير التقني الخاص بـ DeepSeek V4، حقق V4-Pro-Max (أقصى وضع قوة استدلال) 3206 نقطة في معيار Codeforces، متفوقًا على GPT-5.4.

مواصفات معماريتي MoE لنموذجين

وفقًا للتقرير التقني الخاص بـ DeepSeek V4، تتضمن سلسلة V4 نموذجين من نماذج الخبراء الهجين (MoE):

V4-Pro: إجمالي المعلمات 1.6T، تنشيط كل توكن 49B، يدعم سياقًا حتى 1M توكن

V4-Flash: إجمالي المعلمات 284B، تنشيط كل توكن 13B، يدعم كذلك سياقًا حتى 1M توكن

وفقًا للتقرير التقني، فإن استدلال FLOPs لكل توكن في سياق 1M لـ V4-Pro تبلغ 27% فقط من V3.2، كما انخفض مخبأ KV إلى 10% من V3.2. ويعود ذلك بشكل أساسي إلى ترقية معمارية آلية الانتباه الهجينة (CSA انتباه متناثر مضغوط + HCA انتباه مضغوط مكثّف). يتجاوز حجم بيانات ما قبل التدريب 32T توكن؛ وقد تم تحديث المُحسِّن التدريبي إلى Muon.

منهجية ما بعد التدريب: التقطير عبر الاستراتيجية المباشرة يحل محل التعلم المعزز الهجين

وفقًا للتقرير التقني الخاص بـ DeepSeek V4، تتمثل التحديثات الأساسية في ما بعد تدريب V4 في استبدال مرحلة التعلم المعزز الهجين (mixed RL) في V3.2 بالكامل بتقطير الاستراتيجية المباشرة (On-Policy Distillation، OPD). يتم تقسيم العملية الجديدة إلى خطوتين: أولاً، يتم تدريب خبراء مجال منفصلين (SFT + GRPO تعزيز تعلّمي) على مجالات مثل الرياضيات والبرمجة وAgent واتباع التعليمات؛ وبعد ذلك، يتم تقطير قدرات أكثر من عشرة خبراء إلى نموذج موحّد باستخدام مُقطِّر OPD متعدد المعلمين، مع محاذاة logit لتجنب تعارض القدرات الشائع في الطرق التقليدية.

كما يقدّم التقرير نموذج مكافأة توليدي (Generative Reward Model، GRM)، وذلك للمهام التي يصعب التحقق منها باستخدام القواعد؛ إذ يتم تدريب النموذج باستخدام كمية صغيرة ومتنوعة من بيانات التعليمات/الوسوم البشرية، ليقوم النموذج في الوقت نفسه بدور التوليد والتقييم.

نتائج الاختبار المعياري: التشفير يتقدم، لكن الاستدلال المعرفي لا يزال بفارق

وفقًا للتقرير التقني الخاص بـ DeepSeek V4، تأتي نتائج المقارنة بين V4-Pro-Max وOpus 4.6 Max وGPT-5.4 xHigh وGemini 3.1 Pro High (مع استبعاد GPT-5.5 وOpus 4.7 اللذين صدرَا مؤخرًا):

Codeforces: 3206 (GPT-5.4: 3168 / Gemini 3.1 Pro: 3052) → أعلى نتيجة في كامل المنافسة

LiveCodeBench: 93.5 → أعلى نتيجة في كامل المنافسة

SWE Verified: 80.6، متأخر عن Opus 4.6 البالغ 80.8 بفارق 0.2 نقطة مئوية

GPQA Diamond: 90.1، متأخر عن Gemini 3.1 Pro البالغ 94.3

SimpleQA-Verified: 57.9، متأخر عن Gemini 3.1 Pro البالغ 75.6

HLE: 37.7، متأخر عن Gemini 3.1 Pro البالغ 44.4

كما يشير التقرير التقني إلى أن المقارنات المذكورة أعلاه لا تتضمن GPT-5.5 وOpus 4.7 المنشورين مؤخرًا، وأن الفجوة بين V4 والنموذج المغلق من الجيل الأحدث بحاجة إلى تحقق من خلال تقييم طرف ثالث.

الأسئلة الشائعة

ما هي شروط ترخيص Open Source لنسخة معاينة DeepSeek V4، وأين يمكن الحصول عليها؟

وفقًا للإعلان الرسمي لـ DeepSeek في 24 أبريل، تُطرح سلسلة V4 كمصدر مفتوح بموجب ترخيص MIT، وتم رفع أوزان النموذج إلى Hugging Face وModelScope، وتُستخدم للأغراض التجارية والأكاديمية.

ما الاختلاف بين حجم معلمات DeepSeek V4-Pro وV4-Flash؟

وفقًا للتقرير التقني الخاص بـ DeepSeek V4، فإن إجمالي معلمات V4-Pro يبلغ 1.6T، وتنشيط كل توكن 49B؛ بينما إجمالي معلمات V4-Flash يبلغ 284B، وتنشيط كل توكن 13B. ويُشغّل كلا النموذجين سياقًا يصل إلى 1M توكن.

ما نتائج المقارنة المعيارية لـ DeepSeek V4-Pro-Max مع GPT-5.4 وGemini 3.1 Pro؟

وفقًا للتقرير التقني الخاص بـ DeepSeek V4، يتفوق V4-Pro-Max في معيار Codeforces (3206 نقطة) وLiveCodeBench (93.5) على GPT-5.4 وGemini 3.1 Pro، لكنه لا يزال متأخرًا عن Gemini 3.1 Pro في المعايير عالية الكثافة المعرفية (GPQA Diamond وSimpleQA-Verified وHLE)؛ كما أن مجموعة المقارنة لا تشمل GPT-5.5 وOpus 4.7.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

قال CZ إن شركة YZi Labs تخصص 70% لسلسلة الكتل و20% للذكاء الاصطناعي في مؤتمر Consensus Miami 2026

وفقاً لـChainCatcher، قال تشاو تشانغبينغ (CZ) في مؤتمر Consensus Miami 2026 إن YZi Labs تخصص 70% من التمويل للبلوك تشين، و20% للذكاء الاصطناعي، و10% للتكنولوجيا الحيوية. وأضاف CZ أنه ينبغي وضع BNB بوصفه عملةً أصلية لوكلاء الذكاء الاصطناعي، وأن جميع سلاسل الكتل يجب أن تكون "جاهزة للذكاء الاصطناعي" لدعم

GateNewsمنذ 1 س

تستحوذ شركة Public على تطبيق Treasury لمنصة استثمار في مجال الذكاء الاصطناعي لتوسيع التداول في العملات المشفرة

ووفقاً لـChainCatcher، أعلنت Public عن الاستحواذ على منصة خدمة استثمار الذكاء الاصطناعي Treasury App لتعزيز أعمالها في الوساطة المرتكزة على الذكاء الاصطناعي. لم يُكشف عن قيمة عملية الاستحواذ. تدعم Public حالياً التداول في الأسهم والسندات والرموز المشفرة، بما في ذلك Bitcoin وEthereum و

GateNewsمنذ 2 س

أتمت بلِتزي جولة تمويل $200M بقيادة شركة نورث زون.

وفقاً لـ ChainCatcher، أكملت Blitzy، وهي شركة لتطوير البرمجيات بالذكاء الاصطناعي شارك في تأسيسها المهندس المعماري السابق في Nvidia سيد بارديشي، جولة تمويل بقيمة 200 مليون دولار بقيادة Northzone. شاركت في الجولة كل من Battery Ventures وJump Capital وMorgan Creek Digital. تتيح المنصة تحليل الأنظمة المعقدة مع

GateNewsمنذ 3 س

الاتحاد الأوروبي يحظر المواد الإباحية المُصنّعة بالذكاء الاصطناعي على شكل تقليد عميق في 7 مايو

وذكرت وكالة أنباء شينخوا أنه في 7 مايو، توصل أعضاء البرلمان الأوروبي والدول الأعضاء إلى توافق على حظر أنظمة الذكاء الاصطناعي من إنشاء محتوى إباحي مزيف عبر تقنيات التزييف العميق. وسيتم إدراج هذا الحظر في تعديلات قانون الذكاء الاصطناعي لعام 2024. البرلمان الأوروبي

GateNewsمنذ 3 س

طرحت Tether نموذج الذكاء الاصطناعي الطبي للقوى QVAC MedPsy، وحققت درجة 62.62 في نسخة تضم 17 مليار معلمة

وفقاً لـ Odaily، أطلقت مجموعة أبحاث Tether AI QVAC MedPsy، وهو نموذج ذكاء اصطناعي طبي مصمم للعمل محلياً على الهواتف الذكية والأجهزة القابلة للارتداء دون الاعتماد على السحابة. سجلت نسخة 1.7 مليار مُعلم 62.62 على سبعة اختبارات طبية، متفوقة على MedGemma-1.5-4B من Google بفارق 11.42 poi

GateNewsمنذ 4 س

إطلاق واجهة برمجة التطبيقات B.AI أربعة نماذج جديدة، بما في ذلك GPT-5.5 Instant خلال 48 ساعة من إصدار OpenAI

أطلقت B.AI API أربعة نماذج جديدة: GPT-5.5 Instant وDeepSeek-v3.2 وMiniMax-M2.7 وGLM-5.1. أكمل GPT-5.5 Instant التكيّف الأساسي ودمج الواجهة في غضون 48 ساعة من إصدار OpenAI، بما يتيح الوصول الفوري دون تأخير إلى

GateNewsمنذ 4 س
تعليق
0/400
لا توجد تعليقات