
مصدر الصورة: https://x.com/VitalikButerin
أفادت تقارير حديثة بأن المؤسس المشارك لـ Ethereum، فيتاليك بوتيرين، يرى أن مستقبل الذكاء الاصطناعي ينبغي أن يركز على تعزيز القدرات البشرية، وليس السعي وراء أنظمة فائقة الذكاء (ASI) ذاتية التشغيل بالكامل. من خلال منصات التواصل الاجتماعي وتصريحاته العامة، يوضح أهمية أن تضع مختبرات الذكاء الاصطناعي الناشئة مواثيق واضحة تضع التعاون بين الإنسان والآلة وتطوير أدوات التعزيز في المقدمة. كما يوصي بتجنب تطوير أنظمة قادرة على العمل الذاتي لأكثر من دقيقة واحدة.
يأتي هذا الطرح في ظل تصاعد الجدل العالمي حول سلامة الذكاء الاصطناعي ومخاطر الاستقلالية والأطر التنظيمية. ومع بروز الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الفائق (ASI) في النقاش العام، أصبحت الأسئلة حول قدرة الذكاء الاصطناعي على استبدال القرار البشري وتجاوزه للسيطرة البشرية محورية في قطاع التكنولوجيا والمجتمع ككل.
يرتكز موقف فيتاليك على نقطتين جوهريتين:
ويشير إلى أن معظم شركات ASI تركز حالياً على مستويات عالية من الاستقلالية، بينما لا تزال أدوات الذكاء الاصطناعي التي تدعم التفكير البشري، وتحسن الإنتاجية، وتعزز التقدم الاجتماعي قليلة. لذا يدعو إلى تحويل البحث التقني والانتباه المجتمعي نحو المجالات التي تقوي الإدراك والقدرات البشرية.
يشير مفهوم الذكاء الاصطناعي المستقل بالكامل إلى الأنظمة التي تعمل خارج نطاق السيطرة البشرية المباشرة، وتتخذ القرارات وتنفذ الإجراءات ذاتياً. ورغم تعقيدها وإمكاناتها الكبيرة، إلا أنها تحمل مخاطر أخلاقية وسلامة وفقدان السيطرة.
أما الذكاء الاصطناعي المصمم لتعزيز الإنسان فيركز على دعم التفكير البشري، وصنع القرار، والمهام الجسدية، مثل تحسين معالجة المعلومات، والمساعدة في الأعمال الإبداعية، وتحليل الأنظمة المعقدة. وتتميز هذه الأدوات بحدود استخدام واضحة وتعتمد على المدخلات البشرية والإشراف، ما يدمج التعاون بين الإنسان والآلة في سير العمل اليومي.
لا يمثل منظور فيتاليك رفضاً مطلقاً لاستقلالية الذكاء الاصطناعي، بل يعيد رسم حدود قيمة الذكاء الاصطناعي. ويؤكد أن الذكاء الاصطناعي يحقق أعلى فائدة مجتمعية عندما يعزز قدرات الإنسان بدلاً من استبدال صنع القرار البشري، مما يرفع الكفاءة والسلامة والمعايير الأخلاقية.
وفي العقود المقبلة، قد يصبح التعاون بين الإنسان والذكاء الاصطناعي أساساً لتحول الإنتاجية ومساراً محورياً لتحقيق التوازن بين الاستقرار الاجتماعي والأخلاقيات التقنية. ويضع هذا النموذج الذكاء الاصطناعي كأداة للتعزيز وليس كعامل مستقل، مما يمنع انفلات صنع القرار عن الرقابة البشرية.
عند تحديد اتجاهات تطوير الذكاء الاصطناعي، تبرز أهمية المعايير الأخلاقية والقيود التقنية بشكل متساوٍ. من الضروري ضمان قدرة أنظمة الذكاء الاصطناعي على أداء المهام المعقدة، مع تطبيق "قيود" فعالة لمنع إساءة الاستخدام أو فقدان السيطرة. ويتطلب ذلك شفافية خوارزمية، وتعزيز ثقافة المصدر المفتوح، وتأسيس آليات للرقابة المجتمعية.
يدعو فيتاليك إلى دعم مشاريع الذكاء الاصطناعي مفتوحة المصدر لتعزيز الشفافية في عمليات التطوير والمنطق الخوارزمي. ويسمح هذا النهج بتعاون المطورين من خلفيات متنوعة مع مؤسسات الرقابة، مما يقلل من مخاطر الاحتكار والمخاوف الأمنية المرتبطة بالتطوير المغلق، ويعزز تطور التقنية بشكل صحي.
تقدم رؤى فيتاليك إرشادات قيّمة لصناعة الذكاء الاصطناعي:
يتماشى هذا النهج مع آراء كبار الباحثين في سلامة الذكاء الاصطناعي، حيث يحذرون من أن السعي المفرط للاستقلالية يزيد من المخاطر وعدم اليقين، بينما يعزز الذكاء الاصطناعي المساعد سيطرة الإنسان ومشاركته في صنع القرار.
تلخص تأملات فيتاليك بوتيرين حول الذكاء الاصطناعي رؤيته التي تتجاوز التقييم التقني، وتعكس اهتمامه العميق بتأثير الذكاء الاصطناعي الاجتماعي ومستقبل البشرية. ومع تطور التقنية وزيادة قدرات الذكاء الاصطناعي، تبقى أولوية الإنسان وضمان خدمة التقنية للبشرية تحديات مشتركة أمام مجتمع التقنية العالمي والمجتمع ككل.
وفي المستقبل، من المرجح أن يركز تطوير الذكاء الاصطناعي على التطور المشترك بين الإنسان والأنظمة الذكية، ليصبح هذا الاتجاه محركاً رئيسياً للتحول في مجالات التقنية والتعليم والحوكمة والهياكل الاقتصادية.





