الذكاء الاصطناعي (AI) أحدث تطورات هائلة خلال عطلة نهاية الأسبوع، شملت استقالات تنفيذية، نزاعات مع البنتاغون، اختراقات في مجال الروبوتات، إطلاق نماذج مؤسسية، وأدوات أمن جديدة تظهر تسارع الصناعة في جميع الجبهات تقريبًا.
واحدة من أبرز التطورات كانت في 7 مارس عندما استقالت كايتلين كالينوفسكي، رئيسة قسم الروبوتات والأجهزة الاستهلاكية في OpenAI. وأشارت إلى مخاوفها بشأن سعي OpenAI للحصول على عقد مع البنتاغون يتضمن نشر الذكاء الاصطناعي على أنظمة حكومية سرية. وذكرت أنها حذرت من أن المقترح يفتقر إلى الضمانات الكافية بشأن الاستخدامات المراقبة المحلية وإمكانية الأسلحة الذاتية القاتلة.
ردت OpenAI بالتأكيد على أن الشركة تحافظ على خطوط حمراء صارمة فيما يخص بعض التطبيقات العسكرية. ومع ذلك، فإن رحيلها يسلط الضوء على التوتر المتزايد بين طموحات Silicon Valley في الذكاء الاصطناعي وأولويات الأمن القومي في واشنطن، خاصة مع تزايد استكشاف الوكالات الدفاعية لاستخدام أنظمة AI المتقدمة في عمليات حساسة.
تصاعدت هذه التوترات أكثر عندما حددت البنتاغون رسميًا شركة Anthropic كـ “مخاطر سلسلة التوريد” في 5 مارس. هذا التصنيف يحد من قدرة مقاولي الدفاع على استخدام نسخ معينة من نموذج Claude AI الخاص بالشركة في المشاريع الحكومية. هذا التصنيف النادر لشركة تكنولوجيا محلية يشير إلى مدى تصادم الخلافات حول سلامة الذكاء الاصطناعي واستخدامه العسكري مع خطط الدفاع الوطني.
وسط تلك النزاعات، كشف تحالف من التقنيين وصانعي السياسات عن مقترح حوكمة جديد يهدف إلى توجيه المرحلة القادمة من تطوير الذكاء الاصطناعي. في 7 مارس، قدم فيزيائي MIT ماكس تيغمارك ومجموعة من الباحثين والداعمين السياسيين إطار عمل يُعرف بـ “إعلان pro-human”، بهدف ضمان بقاء تطوير AI متوافقًا مع الرقابة البشرية والحريات المدنية.
يحدد الإعلان خمسة مبادئ أساسية، منها إبقاء البشر في السيطرة النهائية على أنظمة AI المتقدمة، ومنع تركيز السلطة بشكل مفرط في يد عدد قليل من الشركات، وفرض اختبارات سلامة صارمة، وحماية الحقوق المدنية، ووضع حدود صارمة على الذكاء الفائق القادر على تحسين نفسه. واعتبر مؤلفوها أن المقترح بمثابة خارطة طريق لصانعي السياسات الذين يواجهون نقاشات معقدة بشكل متزايد حول سياسات AI.
بينما يناقش صانعو السياسات أطر الحوكمة، أظهر الباحثون مدى سرعة تطور الروبوتات المدعومة بالذكاء الاصطناعي. كشفت جامعة نورث وسترن عن فئة جديدة من “الآلات الميتاميكانيكية ذات الأرجل”، وهي روبوتات معيارية قادرة على تعديل أشكالها والاستمرار في العمل حتى بعد تلفها بشكل شديد.
مصدر الصورة: أخبار جامعة نورث وسترن.
نُشرت الدراسة في Proceedings of the National Academy of Sciences، وتُظهر روبوتات يمكن تجميعها بأشكال مختلفة والتحرك عبر تضاريس غير مستوية. في الاختبارات، تم تقطيع بعض الروبوتات إلى أجزاء وما زالت قادرة على استعادة حركتها من خلال إعادة ترتيب مكوناتها المتبقية — سلوك يقول الباحثون إنه قد يكون مفيدًا في مناطق الكوارث، أو بعثات الاستكشاف، أو بيئات غير متوقعة أخرى.
على صعيد البرمجيات، أطلقت OpenAI عائلة نماذج GPT-5.4 في 5 مارس، مصممة خصيصًا للأعباء الوظيفية المهنية والمؤسسية. يتضمن الإصدار نسخًا متخصصة Pro وThinking، قادرة على تحسين مهارات الاستنتاج، والبرمجة المعقدة، والتحكم المباشر في الحاسوب.
تدعم بعض نسخ GPT-5.4 نوافذ سياق تصل إلى مليون رمز تقريبًا، مما يسمح للمستخدمين بتحليل مستندات أو مجموعات بيانات ضخمة في استعلام واحد. قالت OpenAI إن النماذج الجديدة تهدف إلى تقليل الهلوسة وتحسين الاعتمادية في تطبيقات الأعمال مثل تحليل البيانات، والهندسة، وسير العمل الآلي.
يثبت الذكاء الاصطناعي أيضًا فاعليته في العمل الدفاعي للأمن السيبراني. أعلنت شركة Anthropic في 6 مارس أن نموذج Claude AI الخاص بها اكتشف 22 ثغرة في متصفح Mozilla Firefox خلال تعاون اختبار استمر أسبوعين مع Mozilla.
تم تصنيف أربعة عشر من تلك الثغرات على أنها عالية الخطورة. تبرز النتائج كيف يُستخدم الذكاء الاصطناعي المتقدم بشكل متزايد للمساعدة في اكتشاف الثغرات، مما يساعد فرق الأمان على تحديد وتصحيح العيوب بسرعة أكبر من التدقيق اليدوي التقليدي فقط.
الإصدار الأخير من Openclaw، النسخة 2026.3.7، صدر يوم الأحد مع ترقية كبيرة في التوسعة والموثوقية لإطار العمل مفتوح المصدر للوكيل الذاتي المستقل الذي يعمل محليًا على أي منصة تقريبًا.
الميزة الرئيسية هي نظام الإضافات ContextEngine الجديد مع جميع مراحل دورة الحياة (التمهيد، الإدراج، التلخيص، إدارة الوكيل الفرعي، وغيرها)، مما يمنح المطورين والمجتمع الأوسع الحرية في تصميم إضافات إدارة سياق مخصصة — مثل lossless-claw — التي توسع أو تتجاوز السلوك الأساسي مع الحفاظ على التوافق العكسي الكامل.
تسابق شركات التكنولوجيا الكبرى أيضًا على دمج وكلاء AI في الصناعات الواقعية. قدمت Amazon Web Services منصة Amazon Connect Health في 5 مارس، وهي منصة مؤهلة بموجب HIPAA تهدف إلى نشر وكلاء AI عبر عمليات الرعاية الصحية.
يمكن للمنصة أتمتة جدولة المرضى، والمساعدة في التوثيق، والتحقق من تفاصيل التأمين، والتعامل مع المهام الإدارية، مع تكامل مع أنظمة السجلات الصحية الإلكترونية. تقول AWS إن النظام يهدف إلى تقليل الأعباء الإدارية على مقدمي الرعاية الصحية مع تحسين تنسيق المرضى.
كشفت OpenAI عن أداة مؤسسية أخرى مع إصدار Codex Security، وهو وكيل AI قادر على فحص قواعد الشفرات البرمجية، وتحديد الثغرات، والتحقق من النتائج، واقتراح الإصلاحات. أُطلق في البداية كمعاينة بحثية، ويشير إلى أن الذكاء الاصطناعي يتجه بشكل متزايد نحو تدقيق البرمجيات وأمان التطوير.
كما قدمت الشركة إضافة ChatGPT تجريبية لبرنامج Microsoft Excel، تتيح للمستخدمين التفاعل مع GPT-5.4 مباشرة داخل جداول البيانات. تتيح هذه التكاملات للمحللين وفرق الأعمال تشغيل نماذج السيناريو، وتحليل مجموعات البيانات، وتوليد التوقعات المالية دون مغادرة Excel، مما يعمق دمج AI في سير العمل اليومي للأعمال.
تُظهر التطورات الأخيرة في الذكاء الاصطناعي خلال الـ 48 ساعة الماضية أن الصناعة تتقدم على عدة جبهات في آن واحد — من الروبوتات والأمن السيبراني إلى أتمتة الرعاية الصحية والنقاشات الجيوسياسية حول دور AI في الدفاع الوطني. كما تكشف عن صراع متزايد بين الابتكار والرقابة، حيث تتصارع الحكومات، والباحثون، وشركات التكنولوجيا على تحديد قواعد الحماية بينما تتقدم التكنولوجيا بسرعة تفوق قدرة السياسات على المواكبة.