هل ستنقذ الذكاء الاصطناعي البشرية أم ينهيها؟

Decrypt

باختصار

  • عرضت لجنة عبر الإنترنت انقساما عميقا بين المتحولين تقنيا والتقنيين حول الذكاء الاصطناعي العام (AGI).
  • حذر الكاتب إيليزر يودكوفسكي من أن أنظمة الذكاء الاصطناعي “الصندوق الأسود” الحالية تجعل الانقراض نتيجة لا مفر منها.
  • جادل ماكس مور بأن تأخير تطوير الذكاء الاصطناعي العام قد يكلف البشرية أفضل فرصة لها للتغلب على الشيخوخة ومنع الكارثة طويلة الأمد.

تجلى انقسام حاد حول مستقبل الذكاء الاصطناعي هذا الأسبوع حيث ناقش أربعة من التقنيين والمتحولين تقنيا البارزين ما إذا كان بناء الذكاء الاصطناعي العام، أو AGI، سينقذ البشرية أم يدمرها. جمعت اللجنة التي استضافتها منظمة الإنسانية+ غير الربحية أحد أكثر “محددي النذر” صوتا في مجال الذكاء الاصطناعي، إيليزر يودكوفسكي، الذي دعا إلى إيقاف تطوير الذكاء الاصطناعي المتقدم، إلى جانب الفيلسوف والمستقبلي ماكس مور، وعالم الأعصاب الحاسوبي أندرس ساندبرج، ورئيسة منظمة الإنسانية+ السابقة ناتاشا فيتا‑مور. كشفت مناقشتهم عن خلافات جوهرية حول ما إذا كان يمكن مواءمة AGI مع بقاء الإنسان على قيد الحياة أو ما إذا كان إنشاءه سيجعل الانقراض لا مفر منه. مشكلة “الصندوق الأسود”

حذر يودكوفسكي من أن أنظمة الذكاء الاصطناعي الحديثة غير آمنة بشكل أساسي لأنها لا يمكن فهم أو السيطرة على عمليات اتخاذ القرار الداخلية فيها بشكل كامل. قال يودكوفسكي: “أي شيء صندوق أسود من المحتمل أن ينتهي بمشاكل مماثلة بشكل ملحوظ للتقنية الحالية”. وادعى أن البشرية ستحتاج إلى الانتقال “بعيد جدًا جدًا عن النماذج الحالية” قبل أن يمكن تطوير ذكاء اصطناعي متقدم بأمان.  يشير الذكاء الاصطناعي العام إلى شكل من أشكال الذكاء الاصطناعي الذي يمكنه التفكير والتعلم عبر مجموعة واسعة من المهام، بدلاً من أن يكون مخصصًا لمهمة واحدة مثل توليد النص أو الصور أو الفيديو. غالبًا ما يُرتبط AGI بفكرة التفرد التكنولوجي، لأنه الوصول إلى ذلك المستوى من الذكاء قد يمكّن الآلات من تحسين نفسها بشكل أسرع مما يمكن للبشر مواكبته. وأشار يودكوفسكي إلى تشبيه “مضاعف مشبك الورق” الذي روّجه الفيلسوف نيك بوستروم لتوضيح الخطر. يتضمن التجربة الفكرية ذكاء اصطناعي افتراضي يحول كل المادة المتاحة إلى مشابك ورق، مما يعزز هوسه بهدف واحد على حساب البشرية. وأضاف أن إضافة أهداف أخرى، لن يحسن بشكل كبير من السلامة.

وأشار إلى عنوان كتابه الأخير عن الذكاء الاصطناعي، “إذا بناه أحد، فالجميع يموت”، قائلاً: “عنواننا ليس مثل قد يقتلك”، قال يودكوفسكي. “عنواننا هو، إذا بناه أحد، الجميع يموت.” لكن مور تحدى فرضية أن الحذر الشديد هو الخيار الأكثر أمانًا. جادل بأن AGI يمكن أن يوفر أفضل فرصة للبشرية للتغلب على الشيخوخة والأمراض. “الأهم بالنسبة لي، هو أن AGI يمكن أن يساعدنا في منع انقراض كل شخص حي بسبب الشيخوخة”، قال مور. “نحن جميعًا نموت. نحن متجهون نحو كارثة، واحد تلو الآخر.” حذر من أن الإفراط في الحذر قد يدفع الحكومات نحو السيطرة الاستبدادية كوسيلة وحيدة لوقف تطوير الذكاء الاصطناعي على مستوى العالم. وصف ساندبرج نفسه بأنه “أكثر تفاؤلاً” بينما يظل أكثر حذرًا من المتحولين تقنيًا المتفائلين. روى تجربة شخصية كاد فيها أن يستخدم نموذج لغة كبير للمساعدة في تصميم سلاح بيولوجي، ووصفها بأنها “مروعة”. قال ساندبرج: “نصل إلى نقطة حيث زيادة قدرة الفاعلين الخبيثين ستسبب أيضًا فوضى كبيرة”. ومع ذلك، جادل بأن السلامة الجزئية أو “الاقترابية” يمكن أن تكون قابلة للتحقيق. ورفض فكرة أن السلامة يجب أن تكون مثالية لتكون ذات معنى، مقترحًا أن البشر يمكن أن يتفقوا على قيم مشتركة بسيطة مثل البقاء على قيد الحياة. وقال: “لذا إذا طالبت بالسلامة المثالية، فلن تحصل عليها. وهذا يبدو سيئًا جدًا من تلك الزاوية”، مضيفًا: “من ناحية أخرى، أعتقد أنه يمكننا في الواقع أن نحقق سلامة تقريبية. وهذا يكفي.” الشك في التوافق انتقدت فيتا‑مور النقاش الأوسع حول التوافق، معتبرة أن المفهوم يفترض وجود مستوى من الإجماع غير موجود حتى بين المتعاونين منذ فترة طويلة. قالت: “مفهوم التوافق هو مخطط بوليانا”، وأضافت: “لن يكون متوافقًا أبدًا. أعني، حتى هنا، نحن جميعًا أشخاص جيدون. لقد عرفنا بعضنا البعض لعقود، ولسنا متوافقين.”

وصفت ادعاء يودكوفسكي بأن AGI سيقتل الجميع حتمًا بأنه “تفكير مطلق” لا يترك مجالًا لنتائج أخرى. قالت: “لدي مشكلة مع البيان الشامل بأن الجميع يموت”، مضيفة: “عند اقترابي من الأمر كمستقبلي ومفكر عملي، فإنه لا يترك أي عاقبة، ولا بديل، ولا سيناريو آخر. إنه مجرد ادعاء صريح، وأتساءل عما إذا كان يعكس نوعًا من التفكير المطلق.” تضمنت المناقشة جدلاً حول ما إذا كان التكامل الأقرب بين البشر والآلات يمكن أن يقلل من خطر AGI—وهو شيء اقترحه الرئيس التنفيذي لشركة تسلا إيلون ماسك في الماضي. رفض يودكوفسكي فكرة الاندماج مع الذكاء الاصطناعي، مقارنًا إياها بـ"محاولة الاندماج مع فرن التوستر الخاص بك." جادل ساندبرج وفيتا‑مور بأن، مع تطور أنظمة الذكاء الاصطناعي، سيحتاج البشر إلى الاندماج أو التواؤم بشكل أقرب معها للتعامل بشكل أفضل مع عالم بعد AGI. قالت فيتا‑مور: “هذه المناقشة كلها هي فحص واقعي لما نحن عليه كبشر.”

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات