استعدادًا لمعالجة الزيادة في الاستغلال الجنسي للأطفال عبر الذكاء الاصطناعي، نشرت OpenAI يوم الأربعاء خارطة طريق سياسات توضح تدابير أمان جديدة يمكن للصناعة اتخاذها للمساعدة في الحد من استخدام الذكاء الاصطناعي في إنشاء مواد إساءة جنسية للأطفال. ضمن الإطار، تسرد OpenAI تدابير قانونية وتشغيلية وتقنية تهدف إلى تعزيز الحماية ضد الإساءة المدعومة بالذكاء الاصطناعي وتحسين التنسيق بين شركات التكنولوجيا والمحقيقين. “يُعد الاستغلال الجنسي للأطفال أحد أكثر التحديات إلحاحًا في العصر الرقمي”، كتبت الشركة. “ويغيّر الذكاء الاصطناعي بسرعة كلًا من الطريقة التي تتجسد بها هذه الأضرار عبر الصناعة، وكيف يمكن معالجتها على نطاق واسع.”
وقالت OpenAI إن الاقتراح يتضمن ملاحظات من منظمات تعمل في مجال حماية الأطفال والسلامة عبر الإنترنت، بما في ذلك المركز الوطني للأطفال المفقودين والمستغلين والائتلاف الخاص بالمدعي العام وفرقة العمل المعنية بالذكاء الاصطناعي. “يُسرّع الذكاء الاصطناعي التوليدي جريمة الاستغلال الجنسي للأطفال عبر الإنترنت بطرق مقلقة للغاية-خفض الحواجز، وزيادة الحجم، وتمكين أشكال جديدة من الأذى”، قال الرئيس والمدير التنفيذي للمركز الوطني للأطفال المفقودين والمستغلين، ميشيل ديلاوين، في بيان. “لكن في الوقت نفسه، يشعر المركز الوطني للأطفال المفقودين والمستغلين بالارتياح لأن يرى أن شركات مثل OpenAI تفكر في كيفية تصميم هذه الأدوات بشكل أكثر مسؤولية، مع إدراج ضمانات منذ البداية.” وقالت OpenAI إن الإطار يجمع بين المعايير القانونية، وأنظمة الإبلاغ في الصناعة، والضمانات التقنية داخل نماذج الذكاء الاصطناعي. وأضافت الشركة أن هذه التدابير تهدف إلى المساعدة في تحديد مخاطر الاستغلال في وقت أبكر وتحسين المساءلة عبر المنصات الإلكترونية.
تحدد خارطة الطريق مجالات للعمل، بما في ذلك تحديث القوانين لمعالجة مواد إساءة جنسية للأطفال التي ينتجها الذكاء الاصطناعي أو التي تم تعديلها، وتحسين كيفية قيام مقدمي الخدمات عبر الإنترنت بالإبلاغ عن إشارات إساءة والتنسيق مع المحققين، وبناء ضمانات داخل أنظمة الذكاء الاصطناعي المصممة لمنع إساءة الاستخدام. “لا يمكن لأي تدخل واحد أن يعالج هذا التحدي بمفرده”، كتبت الشركة. “يجمع هذا الإطار بين الأساليب القانونية والتشغيلية والتقنية لتحديد المخاطر بشكل أفضل، وتسريع الاستجابات، ودعم المساءلة، مع ضمان بقاء جهات الإنفاذ قوية بينما يتطور التقدم التكنولوجي.” تأتي خارطة الطريق بينما يثير دعاة سلامة الأطفال مخاوف من أن أنظمة الذكاء الاصطناعي التوليدي القادرة على إنتاج صور واقعية يمكن استخدامها لإنشاء تمثيلات مُعالجة أو تركيبية للقُصر. في فبراير، دعت اليونيسف حكومات العالم إلى سن قوانين تُجرّم مواد إساءة الأطفال التي ينشئها الذكاء الاصطناعي. وفي يناير، أطلقت المفوضية الأوروبية تحقيقًا رسميًا في ما إذا كانت X، المعروفة سابقًا باسم Twitter، قد خالفت قواعد الاتحاد الأوروبي الرقمية من خلال عدم منع نموذجها الأصلي المدعوم بالذكاء الاصطناعي، Grok، من توليد محتوى غير قانوني، كما أن الجهات التنظيمية في المملكة المتحدة وأستراليا قد فتحت أيضًا تحقيقات. وبالإشارة إلى أن القوانين وحدها لن توقف تفشي مواد الإساءة التي ينشئها الذكاء الاصطناعي، قالت OpenAI إن معايير أقوى للصناعة ستكون ضرورية مع ازدياد قدرة أنظمة الذكاء الاصطناعي. “من خلال قطع محاولات الاستغلال في وقت أبكر، وتحسين جودة الإشارات المرسلة إلى إنفاذ القانون، وتعزيز المساءلة عبر النظام البيئي، يهدف هذا الإطار إلى منع الضرر قبل حدوثه والمساعدة في ضمان حماية أسرع للأطفال عندما تظهر المخاطر”، قالت OpenAI.