يؤكد رينس كورزاي، الرئيس التنفيذي لشركة جيزا، أن الاعتبارات الأخلاقية في تطوير وكلاء الذكاء الاصطناعي يجب أن تكون “مفروضة بنية معمارية”. يدعو إلى التحكم المدمج للمستخدم و “الأمان من خلال التصميم” للحد من الأعباء التنظيمية.
تقدم الذكاء الاصطناعي السريع أدى إلى تطوير وكلاء الذكاء الاصطناعي المتطورة بشكل متزايد، قادرة على أداء مهام معقدة في مختلف القطاعات. ومع ذلك، مع تزايد قوة واستقلال هؤلاء الوكلاء، ظهرت مخاوف بشأن الاعتبارات الأخلاقية والمخاطر المحتملة.
لمعالجة هذه المخاوف، يدعو رينç كورزاي، الرئيس التنفيذي لشركة جيزا والمحترف في الصناعة، إلى تحقيق أمان المستخدم وسيادته، والتي يجب أن تكون “غير قابلة للتفاوض” و"مفروضة بشكل هندسي". يؤكد كورزاي أن الإرشادات الأخلاقية يجب أن تترجم إلى متطلبات هندسية ملموسة، تشكل كل جانب من تصميم وكيل الذكاء الاصطناعي.
في الردود المكتوبة على أسئلة من Bitcoin.com News، أبرز كورزاي أيضًا الحاجة إلى السيطرة الكاملة للمستخدم. وأضاف أن يجب أن تكون هذه السيطرة مدمجة في تصميم الوكيل، مما يضمن أن يحافظ المستخدمون على الإشراف والسلطة الكاملة. وفي مقابل الأنظمة التي تعتمد على السيطرة المفوضة، يجب على الوكلاء الذكاء الصناعي الأخلاقي أن يعملوا من خلال أطر أذونات يمكن إبطالها على الفور، وفقًا لما قاله كورزاي.
بالنسبة للرئيس التنفيذي لجيزة، الرسالة الأساسية واضحة: يجب أن تُدمج الاعتبارات الأخلاقية في الهندسة المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة متأخرة.
“في DeFi، حيث تكون أصول المستخدمين المالية معرضة للخطر، يجب أن تُدمج الاعتبارات الأخلاقية في البنية المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة ثانوية”، قال كورزاي.
هذه النهج “الأمن أولاً” ضروري لبناء الثقة وضمان تطوير وكلاء الذكاء الاصطناعي بشكل مسؤول. وبالنظر إلى أسواق تمويل (DeFi) المتمركزة، والتي أصبحت أكثر تعقيدًا، كشف كورزاي أنه الآن من الممكن نشر وكلاء الذكاء الاصطناعي لتحسين مواقع المستخدمين عبر البروتوكولات الرائدة وتنفيذ استراتيجيات معقدة بينما يحتفظ المستخدمون بالسيطرة الكاملة على الأموال.
وفي الوقت نفسه، يُجادِل الرئيس التنفيذي بأن حماية المستخدم الفعالة في ديفي تأتي من تصميم المنتج القوي، وليس فقط من التنظيم الخارجي. يقول إن هذا النهج “الأمان-بالتصميم” يسعى لخلق نظام بيئي حيث يكون الأمان “جوهريًا”، مما يقلل من الحاجة إلى تنظيم صارم.
يؤكد كورزاي أن بناء الأنظمة الآمنة بطبيعته يوافق مصالح أصحاب المصلحة ويشارك بشكل استباقي مع الجهات التنظيمية لتشكيل سياسات المستقبل. يتم التركيز على خلق قيمة من خلال منتجات مصممة بشكل جيد، مما يجعل الامتثال نتيجة طبيعية بدلاً من عقبة تعيق الابتكار.
نظرًا للمستقبل، قال كورزاي إنه يتوقع أن تهيمن “التمويل الفكري الأجنبي” بحلول عام 2030، حيث ستظهر وكلاء الذكاء الاصطناعي كواجهة سوقية رئيسية، تتجاوز حدود المعرفة الإدراكية البشرية. في ذلك الوقت، سيحدد البشر الأهداف الاستراتيجية بينما ستتولى وكلاء الذكاء الاصطناعي التنفيذ.
“لن تكون منحنى الاعتماد خطيًا - سيكون تصاعديًا. بمجرد أن تظهر هذه الوكالات قدرتها على تفوق العمليات اليدوية باستمرار مع الحفاظ على ضمانات الأمان، سيصبحون الطريقة الافتراضية للتفاعل مع الأسواق المالية”، أضاف الرئيس التنفيذي.