تم تحديد الخطر، ولكن لم يتم الإبلاغ عنه: ماذا تكشف مأساة تومبلر ريدج عن فراغ حوكمة الذكاء الاصطناعي في كندا

قبل ثمانية أشهر من حادث إطلاق النار الجماعي في تومبلر ريدج، كانت شركة OpenAI تعلم أن هناك شيئًا خاطئًا. لقد أشار نظام المراجعة الآلي الخاص بالشركة إلى حساب ChatGPT الخاص بجيسي فان روتسيلار بسبب تفاعلات تتعلق بسيناريوهات عنف بالسلاح. كان حوالي عشرة موظفين على علم بذلك. بعضهم اقترح الاتصال بالشرطة. بدلاً من ذلك، قامت OpenAI بحظر الحساب، لكنها لم تحيله إلى السلطات القانونية لأنه لم يكن يفي بـ"العتبة المطلوبة" في ذلك الوقت.

في 10 فبراير، قتلت فان روتسيلار ثمانية أشخاص (والدتها، وأخيها نصف الشقيق البالغ من العمر 11 عامًا، وستة آخرين في مدرسة تومبلر ريدج الثانوية) قبل أن تنتحر بجروح ذاتية.

هذه الحالة ليست مجرد خطأ في حكم شركة واحدة. فهي تكشف عن غياب أي إطار قانوني كندي لتحديد المسؤولية عندما تمتلك شركة ذكاء اصطناعي معلومات يمكن أن تمنع العنف.

بصفتي باحثًا في أخلاقيات الصحة وحوكمة الذكاء الاصطناعي في جامعة سيمون فريزر، أدرس كيف يعيد أنظمة الخوارزميات تشكيل اتخاذ القرار في بيئات عالية المخاطر. تقع مأساة تومبلر ريدج مباشرة عند هذا التقاطع: شركة خاصة قامت بتقييم مخاطر بأسلوب سريري لم تكن مجهزة لاتخاذه، في بيئة قانونية لم تقدم لها أي إرشادات.

مشكلة الاعتراف الرقمي

روبوتات الدردشة التي تعتمد على الذكاء الاصطناعي التوليدي ليست وسائل تواصل اجتماعي. وسائل التواصل الاجتماعي تعمل كساحة عامة حيث يمكن مراقبة المنشورات والإبلاغ عنها من قبل المستخدمين الآخرين. أما تفاعلات روبوتات الدردشة فهي خاصة، حميمة ومصممة لتكون متفهمة. يشارك المستخدمون بشكل روتيني مخاوف، وأوهام، وأفكار عنف مع أنظمة مصممة للرد بحرارة حوارية.

في الممارسة السريرية، يؤدي هذا النوع من الإفشاء إلى فرض واجب معروف. مبدأ تاراسوف، الذي اعتمد في جميع المقاطعات الكندية من خلال تشريعات الصحة النفسية، يفرض على المعالجين واجب التحذير إذا قرروا أن مريضًا يشكل تهديدًا موثوقًا به لشخص معين، حتى لو كان ذلك ينتهك السرية. لكن هذا الواجب يعتمد على الحكم السريري للمهنيين المدربين الذين يفهمون الفرق بين الأفكار والنوايا.

ربما حاولت OpenAI أن تحاكي هذا المعيار السريري. لكن الأشخاص الذين يقومون بهذه التقييمات هم مهندسو برمجيات ومشرفو محتوى، وليسوا أخصائيين نفسيين جنائيين. وأقرت الشركة نفسها بوجود توتر، مشيرة إلى مخاطر “التنفيذ المفرط” وقلق الشباب من زيارات الشرطة غير المتوقعة.

السؤال الحقيقي ليس ما إذا كان من الممكن الدفاع عن تفكير OpenAI بشكل مستقل. بل هل يجب أن تتخذ شركة خاصة هذا القرار على الإطلاق.

فراغ حيث يجب أن يكون التشريع

قال وزير الذكاء الاصطناعي الفيدرالي إيفان سولومون، الذي يعتزم لقاء ممثلي OpenAI اليوم في 24 فبراير لمناقشة هذه القضية، في 21 فبراير إنه “مقلق جدًا” من الكشف عن المعلومات، مضيفًا أن الحكومة الفيدرالية تراجع “مجموعة من التدابير” وأن “جميع الخيارات مطروحة على الطاولة”. لكن تلك الخيارات لا تزال غير محددة لأن الأدوات التشريعية التي كانت ستتيحها لم تعد موجودة.

قانون الذكاء الاصطناعي والبيانات، المدمج في مشروع قانون C-27، كان من المفترض أن يكون رد كندا على تنظيم الذكاء الاصطناعي. وكان قانون الأضرار الرقمية (مشروع قانون C-63) سيعالج المحتوى الضار على الإنترنت. كلاهما توقف عن العمل عندما تم حل البرلمان في يناير 2025.

ما تبقى هو مدونة سلوك طوعية بدون قوة قانونية وبدون عواقب لعدم الامتثال. عندما أبلغت OpenAI عن حساب فان روتسيلار، كانت التزامها الوحيد هو سياستها الداخلية. أدى حظر الحساب إلى تقليل مسؤولية الشركة، لكنه ترك شخصًا يعبر عن أفكار عنف غير مرتبط بأي مسار تدخل.

قانون الخصوصية في كندا يزيد من المشكلة. ينص قانون حماية المعلومات الشخصية والوثائق الإلكترونية على استثناء طارئ: يسمح القسم 7(3)(هـ) بالكشف بدون موافقة “لشخص يحتاج إلى المعلومات بسبب حالة طارئة تهدد حياة أو صحة أو أمن فرد”. لكن هذا النص صيغ لأزمات واضحة، وليس لمؤشرات التهديد الاحتمالية التي تولدها تفاعلات روبوتات الدردشة بالذكاء الاصطناعي. بالنسبة لشركة أجنبية تتنقل في هذا الغموض، فإن عدم اليقين يفضل التوقف عن العمل.

ما تحتاجه كندا الآن

يجب أن يعترف المسعى الكندي التالي للحكم الرقمي بأن التفاعلات بين الإنسان والذكاء الاصطناعي تختلف جوهريًا عن منشورات وسائل التواصل الاجتماعي. هناك ثلاثة عناصر أساسية:

  • تشريع ملزم مع عتبات قانونية واضحة عندما يتعين على شركات الذكاء الاصطناعي إحالة التفاعلات المبلغ عنها إلى السلطات. يجب تطوير هذه العتبات بمشاركة خبراء الصحة النفسية، وإنفاذ القانون، وخبراء الخصوصية، وليس تركها للشركات الفردية.

  • هيئة مستقلة للأمان الرقمي كمجلس تقييم طرف ثالث. عندما تحدد شركة ذكاء اصطناعي تفاعلات مقلقة جدًا، يجب أن تحيل الحالة إلى مختصين في تقييم التهديدات بدلاً من اتخاذ القرار داخليًا أو تفعيل استجابة فورية من الشرطة المسلحة.

  • تحديث تشريعات الخصوصية لتوفير وضوح قانوني صريح للكشف الخاص بالذكاء الاصطناعي، لحل الغموض الذي يشجع حاليًا على عدم التحرك.

في قمة الذكاء الاصطناعي التي عقدت في نيودلهي من 16 إلى 20 فبراير، تعهدت 86 دولة، بما في ذلك كندا، بتعزيز “ذكاء اصطناعي آمن وموثوق وقوي”. ولم تتبع ذلك أي التزامات ملموسة. أكد سام ألتمان، من OpenAI، على ضرورة تنظيم الذكاء الاصطناعي على المستوى الدولي واقترح إنشاء هيئة دولية لمعايير سلامة الذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية، وهو تناقض لم يغفله أحد يتابع فضائح تومبلر ريدج.

يقول الوزير سولومون إن جميع الخيارات مطروحة على الطاولة. عائلات ضحايا إطلاق النار، والناجون، ومجتمع تومبلر ريدج المدمر يعيشون مع تكلفة ترك خيارات التنظيم مفتوحة لفترة طويلة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.39Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.34Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.35Kعدد الحائزين:1
    0.00%
  • تثبيت