
البرمجيات الذكية الاصطناعية Claude، المطورة من قبل شركة Anthropic، رفعت دعوى قضائية يوم الاثنين في محكمة اتحادية بكاليفورنيا ضد حكومة ترامب، متهمة إياها بـ"عمل انتقامي غير قانوني"، بسبب رفض الشركة السماح للجيش باستخدام تقنيتها بشكل غير محدود — بما في ذلك استخدامها في الأسلحة الذاتية المميتة والمراقبة الداخلية واسعة النطاق. وهذه هي المرة الأولى في تاريخ الولايات المتحدة التي تُعتبر فيها شركة محلية جزءًا من مخاطر سلسلة التوريد العسكرية.
بدأت هذه المعركة القانونية بقرار نهائي من وزير الدفاع بيت هيجسث في 3 مارس 2026، بتصنيفه شركة Anthropic كشركة ذات مخاطر في سلسلة التوريد العسكرية. وتترتب على هذا التصنيف عواقب قانونية مباشرة وخطيرة — حيث يُحظر على أي شخص أو شركة تتعامل مع الجيش أن تتعامل أيضًا مع Anthropic، مما يعني استبعادها تمامًا من سوق المشتريات الفيدرالية.
ومن الجدير بالذكر أن هذا التصنيف لم يُستخدم سابقًا إلا للشركات المرتبطة بأعداء أجانب، ولم يُطبق على الشركات الأمريكية المحلية من قبل. ووصفت Anthropic هذا الإجراء في الدعوى القضائية بأنه “غير مسبوق وغير قانوني”، وادعت أن “الدستور لا يسمح للحكومة باستخدام سلطتها الواسعة لمعاقبة شركة على تعبير محمي.”
وتشمل قائمة المدعى عليهم في القضية العديد من المسؤولين الحكوميين، بمن فيهم بيت هيجسث (وزير الدفاع)، سكوت بيسنت (وزير المالية)، ماركو روبيو (وزير الخارجية)، و17 جهة حكومية أخرى، تغطي عدة قطاعات رئيسية في الحكومة الفيدرالية الأمريكية.
(المصدر: CourtListener)
وفقًا لما ورد في الدعوى، طلب هيجسث من الشركة “التخلي تمامًا عن قيود الاستخدام” — وهو ما رفضته Anthropic، لأن هذه القيود جزء من عقدها الحكومي، وتهدف إلى منع استخدام Claude في نوعين معينين من الأغراض:
وأوضحت Anthropic في الدعوى أن “شركة Anthropic لم تختبر قط استخدام Claude في هذه الأغراض. ولا تثق حاليًا في أن Claude يمكن أن يعمل بشكل موثوق أو آمن إذا استُخدم لدعم حروب ذاتية مميتة.”
ويتماشى هذا الموقف مع مبادئ الشركة طويلة الأمد في أمان الذكاء الاصطناعي، لكنه يتعارض جوهريًا مع سياسة إدارة ترامب في توسيع تطبيقات الذكاء الاصطناعي العسكرية. ومن الجدير بالذكر أن الحكومة الأمريكية والبنتاغون بدأوا منذ عام 2024 باستخدام تقنيات Anthropic، وكان Claude أول ذكاء اصطناعي يُنشر في بيئة سرية. كما أن التصنيف جاء مصحوبًا بأمر مباشر من ترامب لوقف استخدام الموظفين الفيدراليين لـClaude.
بعد اندلاع المعركة القانونية، كانت ردود فعل صناعة الذكاء الاصطناعي سريعة وواسعة. يوم الاثنين، قدم أكثر من 30 مهندسًا وعالمًا من OpenAI وGoogle، بمن فيهم كبير العلماء في Google جيف دين، ملفًا قانونيًا داعمًا (amicus brief) يعبر عن دعمهم لـAnthropic.
وحذر هؤلاء من أن “السماح بمواصلة هذا النوع من العقوبات على واحدة من الشركات الرائدة في الذكاء الاصطناعي في أمريكا سيؤثر سلبًا على القدرة التنافسية الصناعية والعلمية للولايات المتحدة في مجالات الذكاء الاصطناعي وغيرها.” ويشير هذا إلى قلق أوسع — وهو أن استخدام الحكومة لمخاطر سلسلة التوريد لقمع الشركات الأمريكية المحلية قد يضعف الميزة التنافسية للولايات المتحدة في مواجهة الصين في سباق الذكاء الاصطناعي العالمي.
وفقًا للقانون الأمريكي، تصنيف شركة كمخاطر في سلسلة التوريد يعني أن أي شخص أو كيان يتعامل مع الجيش لا يمكنه التعامل أيضًا مع الشركة المصنفة، مما يترتب عليه استبعادها من سوق المشتريات الفيدرالية بالكامل. وهذا يعني استبعاد Anthropic من جميع العقود الحكومية، بما يشمل الموردين والشركاء الذين يتعاملون مع الحكومة.
تؤكد Anthropic أن Claude لم يُختبر أو يُقيم أمنيًا في سياقات الأسلحة الذاتية المميتة، ولا يمكنها ضمان موثوقيته أو سلامته في مثل هذه الاستخدامات. بالإضافة إلى ذلك، فإن مبادئها في أمان الذكاء الاصطناعي ترفض نشر أنظمة ذات مخاطر عالية بدون اختبار كافٍ، خاصة في سياقات عسكرية تهدد حياة البشر.
تأييد 30 مهندسًا وعالمًا من شركات منافسة يعكس قلق صناعة الذكاء الاصطناعي من تدخل الحكومة عبر تصنيف مخاطر سلسلة التوريد. ويشير إلى مصلحة مشتركة: إذا استطاعت الحكومة استخدام أدوات كهذه لقمع الشركات غير المتوافقة، فإن أي شركة ترفض تقييد تقنياتها قد تواجه نفس المصير.