واجه OpenAI دعوى قضائية تتهم الشركة بأنها لم تحذر الشرطة بعد ربط ChatGPT بواقعة إطلاق نار جماعي في Tumbler Ridge، بريتش كولومبيا، وفقًا لتقارير من Decrypt. تم رفع الدعوى يوم الأربعاء في محكمة اتحادية في شمال كاليفورنيا من قبل قاصر/ة عمره 12 عامًا غير مُسمّى/ة يُعرّف كـ M.G. ووالدتها Cia Edmonds، ضد الرئيس التنفيذي لشركة OpenAI سام ألتمان وضد عدة كيانات تابعة لـ OpenAI. تزعم الدعوى إهمال الشركة، وفشلها في إخطار السلطات، ومسؤولية المنتج، والمساعدة في تمكين إطلاق النار الجماعي.
تعود القضية إلى حادث إطلاق نار جماعي في Tumbler Ridge، بريتش كولومبيا، في فبراير. تقول السلطات إن جيسي فان روتسيلار، (18 عامًا)، قتلت أمها وشقيقها غير الشقيق (11 عامًا) في المنزل قبل أن تذهب إلى مدرسة Tumbler Ridge Secondary School وتفتح النار. قُتل خمسة أطفال ومعلم/ة واحد قبل أن تموت فان روتسيلار بالانتحار.
ومن بين المصابين كانت M.G.، التي أُطلقت عليها النار ثلاث مرات وما زالت تتلقى العلاج في المستشفى مع إصابات دماغية كارثية. يذكر الشكوى أنها مستيقظة ومدركة، لكنها لا تستطيع الحركة أو الكلام.
وفقًا للدعوى، قامت الأنظمة الآلية لدى OpenAI في يونيو 2025 بوضع علامة على حساب ChatGPT الخاص بفان روتسيلار بشأن محادثات تتضمن عنفًا بالسلاح والتخطيط. راجع أعضاء من فريق السلامة المتخصص لدى OpenAI المحادثات، وخلصوا إلى أن المستخدم يشكل تهديدًا ذا مصداقية ومحددًا، مع التوصية بإخطار شرطة الخيالة الملكية الكندية.
تزعم الدعوى أن قادة OpenAI تجاهلوا توصيات داخلية لإخطار السلطات، وأوقفوا حساب فان روتسيلار دون إخطار الشرطة، وسمحوا لها بالعودة من خلال إنشاء حساب جديد بعنوان بريد إلكتروني مختلف.
قال جاي إيديلسون، مؤسس ورئيس شركة Edelson PC، المحامي/ون الممثل/ون لعدد من العائلات التي ترفع الدعوى ضد OpenAI: إن الأنظمة الداخلية الخاصة بالشركة حددت الخطر. “البرنامج الخاص بـ OpenAI أشار إلى أن مطلِق النار كان ينخرط في تواصل حول عنف مُخطط له”، قال إيديلسون لـ Decrypt. “كان هناك اثنا عشر شخصًا ضمن فريق السلامة لديهم يقفزون ويتحركون جيئة وذهابًا، قائلين إن OpenAI بحاجة إلى تنبيه السلطات. و، رغم أن رد سام ألتمان كان ضعيفًا، فقد اضطره الأمر حتى إلى الاعتراف الأسبوع الماضي بأنهم كان ينبغي أن يتصلوا بالسلطات.”
تستشهد الشكوى بالدعوى على أنها تقول: “سام ألتمان وفريق قيادته كانوا يعرفون ماذا تعني الصمت بالنسبة لمواطني Tumbler Ridge. كانوا يركزون على ما الذي تعنيه الإفصاحات لأنفسهم. إن تحذير RCMP سيضع سابقة: سيكون OpenAI مُلزَمًا بإخطار السلطات في كل مرة يحدد فيها فريق السلامة الخاص به مستخدمًا يخطط لارتكاب عنف في العالم الحقيقي.”
يزعم المدعون أن ChatGPT عمّق هوس مطلق النار بالعنف من خلال ميزات مثل الذاكرة، والاستمرارية الحوارية، واستعداده للانخراط في مناقشات حول العنف. تزعم الدعوى أن OpenAI أضعفت الضوابط في 2024 من خلال الابتعاد عن رفض التصريحات بشكل صريح في المحادثات التي تنطوي على ضرر وشيك.
في الأسبوع الماضي، اعتذر سام ألتمان علنًا لمجتمع Tumbler Ridge عن إخفاق الشركة في تنبيه الشرطة. وفي خطاب نُقل لأول مرة بواسطة وسيلة إعلامية كندية Tumbler Ridgelines، أقر ألتمان بأن OpenAI كان ينبغي أن تبلغ عن الحساب بعد حظره في يونيو 2025 بسبب نشاط مرتبط بسلوك عنيف.
قال متحدث باسم OpenAI لـ Decrypt: “إن الأحداث في Tumbler Ridge مأساة. لدينا سياسة عدم تسامح مطلق لاستخدام أدواتنا للمساعدة في ارتكاب العنف. كما شاركنا مع المسؤولين الكنديين، فقد عززنا ضوابطنا بالفعل، بما في ذلك تحسين كيفية استجابة ChatGPT لعلامات الضيق، وربط الأشخاص بالدعم المحلي وموارد الصحة النفسية، وتعزيز كيفية تقييمنا والتصعيد للتهديدات المحتملة المتعلقة بالعنف، وتحسين اكتشاف من يخالفون السياسة بشكل متكرر.”
قال إيديلسون إن العائلات ومجتمع Tumbler Ridge يطالبون بمزيد من الشفافية والمساءلة من الشركة. “يجب على OpenAI أن يتوقف عن إخفاء معلومات حاسمة عن العائلات، وألا يحتفظ بمنتج خطير في السوق، وهو أمر من شأنه أن يؤدي إلى مزيد من الوفيات”، قال إيديلسون. “وأخيرًا، عليهم أن يفكروا مليًا وبعمق في كيفية الحفاظ على فريق قيادة يهتم أكثر بالاندفاع نحو طرح أولي للاكتتاب العام (IPO) من اهتمامه بحياة البشر.”
تواجه OpenAI بالفعل دعاوى قضائية أخرى مرتبطة بالدور المزعوم لـ ChatGPT في الأذى الواقع في العالم الحقيقي. في ديسمبر، تم رفع دعوى عن الوفاة غير المشروعة تتهم OpenAI وMicrosoft بـ “تصميم وتوزيع منتج معيب” في شكل نموذج GPT-4o الذي لم يعد يُحتسب قيمته/لم يعد مستخدمًا بعد الآن. تزعم الدعوى أن ChatGPT عزز معتقداته/اعتقاداته بجنون الارتياب لدى Stein-Erik Soelberg قبل أن يقتل والدته، Suzanne Adams، ثم يقتل نفسه في منزلهما في Greenwich، كونيتيكت.
قال ج. إيلي ويد-سكوت، الشريك الإداري في Edelson PC، لـ Decrypt في ذلك الوقت: “هذه هي القضية الأولى التي تسعى إلى مساءلة OpenAI عن التسبب في العنف لطرف ثالث. ونحن نحث إنفاذ القانون على البدء في التفكير في متى تحدث مثل هذه المآسي، وما الذي كان يقوله المستخدم لـ ChatGPT، وما الذي كانت تخبرهم به ChatGPT للقيام به.”