من صنعوا الروبوتات لـ OpenAI، رأوا مستقبلًا مخيفًا

robot
إنشاء الملخص قيد التقدم

المؤلف: صديق التقنية القديم

في 7 مارس 2026، عندما رأيت خبر استقالة كاتلين كالينوفسكي، لم يكن رد فعلي الأول هو الصدمة، بل هو: “أخيرًا، شخص يتحدث بالفعل من خلال الأفعال”.

كاتلين كالينوفسكي هي المسؤولة عن هندسة الأجهزة والروبوتات في OpenAI، انضمت في نوفمبر 2024، وبعد أقل من سنة ونصف قررت المغادرة.

أسبابها مباشرة وثقيلة—عدم قبولها للعقد الموقع بين OpenAI ووزارة الدفاع الأمريكية، والذي قد يؤدي إلى مراقبة داخلية وتطبيقات أسلحة ذاتية، لا يمكنها تحملها.

هذه ليست مجرد هجرة عادية للمواهب. إنها شخص شارك بشكل شخصي في بناء جسد للذكاء الاصطناعي، يخبر العالم من خلال استقالته: أنها لا ترغب في أن تكون مسؤولة عما قد تفعله الأشياء التي صنعتها.

لفهم مغادرة كالينوفسكي، يجب أن نعود قبل حوالي أسبوع من الآن.

في 28 فبراير، أعلن سام ألتمان أن OpenAI توصلت إلى اتفاق مع وزارة الدفاع الأمريكية، يسمح للبنتاغون باستخدام نماذج الذكاء الاصطناعي الخاصة بـ OpenAI على شبكاتها المصنفة. فور الإعلان، اشتعلت وسائل الإعلام بالجدل.

المثير للاهتمام أن “المرجع” لهذا العقد هو شركة Anthropic المنافسة.

قبل ذلك بقليل، رفضت Anthropic عرضًا مماثلاً من البنتاغون، وأصرت على إدراج قيود أخلاقية أكثر صرامة في العقد، وردًا على ذلك، هاجم وزير الدفاع بيت هيجست على منصة X، واصفًا تصرفات Anthropic بأنها “درس في الغطرسة والخيانة”، وتوافق مع قرار إدارة ترامب بوقف التعاون مع Anthropic.

ثم تولت OpenAI الصفقة.

رد فعل المستخدمين كان شديدًا. في 28 فبراير، زاد معدل إلغاء تثبيت ChatGPT بنسبة 295% مقارنة باليوم السابق، وانتشرت حركة #QuitGPT بسرعة على وسائل التواصل الاجتماعي، حيث تجاوز عدد المؤيدين للمقاطعة الرقمية 2.5 مليون خلال ثلاثة أيام. وتفوقت خدمة Claude على ChatGPT، وأصبحت التطبيق الأكثر تحميلًا يوميًا في الولايات المتحدة، وتصدرت قائمة التطبيقات المجانية على متجر Apple.

تحت ضغط، اعترف ألتمان علنًا في 3 مارس بأنه “لم يكن ينبغي أن يسرع في إصدار هذا العقد”، واصفًا إياه بأنه “يبدو طموحيًا ومتسرعًا”، وأعلن عن تعديل صياغة العقد، مع توضيح أن “نظام الذكاء الاصطناعي لا ينبغي أن يُستخدم عمدًا للمراقبة الداخلية على الأمريكيين والمواطنين”.

لكن كلمة “عمدًا” نفسها كانت ثغرة. أشار محامو مؤسسة الحدود الإلكترونية بشكل حاسم إلى أن وكالات الاستخبارات والتنفيذ غالبًا ما تعتمد على بيانات تأتي من “صدفة” أو “شراء تجاري” لتجنب حماية الخصوصية الأقوى—إضافة كلمة “عمدًا” لا تعني بالضرورة فرض قيود حقيقية.

استقالة كالينوفسكي جاءت في هذا السياق.

01 ما رأته، هو أكثر تحديدًا مما نتخيل

بينما لا يزال معظم الناس يناقشون “هل تتنازل OpenAI للحكومة”، كانت كالينوفسكي تواجه مشكلة أكثر تحديدًا وقسوة—ففريقها يصنع روبوتات.

هندسة الأجهزة والروبوتات ليست مجرد كتابة أكواد وضبط معلمات. إنها تركيب أذرع وأرجل وأعين للذكاء الاصطناعي. عندما تتوسع علاقة OpenAI مع وزارة الدفاع من “استخدام النموذج” إلى “تطبيقات عسكرية ذاتية التجسد”، يتغير نوع عمل كالينوفسki.

لقد حذر الباحثون في مجال الأسلحة الذاتية بالفعل من وصول هذا اليوم.

السياسات الحالية لوزارة الدفاع الأمريكية لا تتطلب موافقة يدوية قبل استخدام الأسلحة الذاتية. بعبارة أخرى، العقد الموقع بين OpenAI لا يمنع تقنيًا أن يصبح نموذجها جزءًا من نظام يقرر بموجبه GPT قتل شخص ما.

هذا ليس مبالغًا فيه. أوضحت أستاذة قانون المشتريات الحكومية في جامعة جورجتاون، جيسيكا تيلبمان، عند تحليل عقد OpenAI المعدل، أن الصياغة “لا تمنح OpenAI حرية مماثلة لـ Anthropic في حظر الاستخدام الحكومي القانوني”، فهي فقط تنص على أن البنتاغون لا يمكنه استخدام تقنيات OpenAI لخرق “القوانين والسياسات الحالية”—لكن القوانين الحالية في تنظيم الأسلحة الذاتية توجد بها ثغرات كبيرة.

وخبراء الحوكمة في جامعة أكسفورد لديهم تقييم مماثل، حيث يرون أن اتفاقية OpenAI “غير قادرة على سد الثغرات الهيكلية” التي تتركها أنظمة المراقبة الداخلية والأسلحة الذاتية التي تعتمد على الذكاء الاصطناعي.

مغادرة كالينوفسكي كانت رد فعل شخصي على هذا التقييم.

02 ما يحدث داخل OpenAI

ليست كالينوفسكي أول من يغادر، ومن المرجح أنها لن تكون الأخيرة.

تشير البيانات إلى أن معدل استقالة فريق الأخلاقيات وفريق أمان الذكاء الاصطناعي في OpenAI قد وصل إلى 37%، ومعظم أسباب الاستقالة كانت “عدم توافق مع قيم الشركة” أو “عدم القدرة على قبول استخدام الذكاء الاصطناعي في الأغراض العسكرية”. كتب الباحث العلمي إيدن ماكلوغلين في منشور داخلي: “أعتقد شخصيًا أن هذه الصفقة لا تستحق العناء”.

ومن الجدير بالذكر أن موجة الاستقالات هذه حدثت في مرحلة توسع تجاري سريع للشركة. قبل وبعد الجدل حول العقود الدفاعية، أعلنت الشركة عن توسيع اتفاقها مع AWS من 38 مليار دولار إلى 100 مليار دولار، لمدة ثماني سنوات؛ وأعادت تحديد أهداف الإنفاق، متوقعة أن تتجاوز إيراداتها الإجمالية 280 مليار دولار بحلول 2030.

التسريع التجاري، واستمرار هجرة فرق الأمان. هذا الفارق هو أهم محور لفهم وضعية OpenAI الحالية.

قيم أي شركة تظهر في النهاية في من تبقي من الموظفين، ومن لا يمكنها الاحتفاظ بهم. عندما يبدأ الأشخاص الأكثر اهتمامًا بـ"كيف ستُستخدم هذه التقنية"، في المغادرة واحدًا تلو الآخر، من السهل أن تتوقع إلى أين ستتجه الهيكلية التنظيمية المتبقية.

اختارت شركة Anthropic طريقًا آخر في هذه اللعبة—رفضت العقد، وتحملت غضب وزارة الدفاع، لكنها كسبت ثقة عدد كبير من المستخدمين. خلال تلك الفترة، زاد تحميل Claude بشكل عكسي، مما يثبت أن “الرفض المبدئي” قد لا يكون دائمًا استراتيجية خاسرة في الأعمال.

لكن Anthropic دفعت ثمنًا أيضًا—تم استبعادها من قبل الحكومة، على الأقل مؤقتًا.

هذه هي المشكلة الحقيقية: لا يوجد خيار مثالي.

الرفض يعني احتمال فقدان النفوذ، وحتى استبعادها من وضع القواعد. القبول يعني استخدام تقنياتها للدفاع عن أفعال لا يمكنها السيطرة عليها تمامًا.

رد كالينوفسكي كان الطريق الثالث—الرحيل.

هذا هو أكثر ما يمكنها فعله بصدق.

03 معركة روح ووجدان وادي السيليكون بدأت للتو

لو أوسعنا النظرة، فإن معنى هذا الحدث يتجاوز استقالة شخص واحد.

الدمج بين الذكاء الاصطناعي والعسكرية هو سؤال مصيري ستواجهه الصناعة عاجلاً أم آجلاً. البنتاغون لديه الميزانية، والاحتياج، والقدرة على دمج التكنولوجيا، ولن يتوقف عن محاولة جذب شركات الذكاء الاصطناعي. وشركات الذكاء الاصطناعي—سواء كانت OpenAI التي تسعى إلى الذكاء الاصطناعي العام، أو Anthropic التي تركز على السلامة، أو غيرها—سيكون عليها أن تقدم إجاباتها في النهاية.

استراتيجية ألتمان كانت محاولة للقبول بالواقع التجاري، مع وضع خطوط حمراء عبر صياغة العقود. لكن، كما أشار العديد من الخبراء القانونيين والحوكمة، تلك الصياغات أكثر شبها بحماية علاقات عامة، وليست قيودًا تقنية صارمة.

المشكلة الأعمق هي أنه عندما يُنشر نموذج الذكاء الاصطناعي في شبكات التصنيف، ويبدأ في المشاركة في القرارات العسكرية، فإن العالم الخارجي لا يملك القدرة على التحقق من مدى تنفيذ تلك “الضمانات”.

غياب الشفافية هو أكبر مخاطر بحد ذاته.

كالينوفسكي قضت أقل من سنة ونصف في OpenAI، لكنها اختارت أن تغادر في هذه اللحظة. لم تصدر بيانًا مطولًا، ولم تنتقد أحدًا بشكل مباشر، فقط عبر أفعالها وضعت حدودًا لنفسها.

من ناحية، هذا أقوى من أي مقال سياسي.

هندسة الأجهزة والروبوتات كانت من أكثر المجالات إثارة في وادي السيليكون. عندما غادرت كالينوفسكي، لم تأخذ معها مجرد سيرة ذاتية، بل تركت سؤالًا لكل من لا يزال في هذا القطاع—إلى أي مدى أنت مستعد لتحمل مسؤولية ما تصنعه؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.99Kعدد الحائزين:2
    0.00%
  • تثبيت