وكلاء الذكاء الاصطناعي في DeFi: يجب أن يكون التحكم للمستخدم 'غير قابل للتفاوض'، حذر الرئيس التنفيذي

Coinpedia
DEFI5.59%
REN‎-4.18%
AGENT‎-0.45%

يؤكد رينس كورزاي، الرئيس التنفيذي لشركة جيزا، أن الاعتبارات الأخلاقية في تطوير وكلاء الذكاء الاصطناعي يجب أن تكون “مفروضة بنية معمارية”. يدعو إلى التحكم المدمج للمستخدم و “الأمان من خلال التصميم” للحد من الأعباء التنظيمية.

‘تطبيق إجباري للأمان’ المستخدمين بنية

تقدم الذكاء الاصطناعي السريع أدى إلى تطوير وكلاء الذكاء الاصطناعي المتطورة بشكل متزايد، قادرة على أداء مهام معقدة في مختلف القطاعات. ومع ذلك، مع تزايد قوة واستقلال هؤلاء الوكلاء، ظهرت مخاوف بشأن الاعتبارات الأخلاقية والمخاطر المحتملة.

لمعالجة هذه المخاوف، يدعو رينç كورزاي، الرئيس التنفيذي لشركة جيزا والمحترف في الصناعة، إلى تحقيق أمان المستخدم وسيادته، والتي يجب أن تكون “غير قابلة للتفاوض” و"مفروضة بشكل هندسي". يؤكد كورزاي أن الإرشادات الأخلاقية يجب أن تترجم إلى متطلبات هندسية ملموسة، تشكل كل جانب من تصميم وكيل الذكاء الاصطناعي.

في الردود المكتوبة على أسئلة من Bitcoin.com News، أبرز كورزاي أيضًا الحاجة إلى السيطرة الكاملة للمستخدم. وأضاف أن يجب أن تكون هذه السيطرة مدمجة في تصميم الوكيل، مما يضمن أن يحافظ المستخدمون على الإشراف والسلطة الكاملة. وفي مقابل الأنظمة التي تعتمد على السيطرة المفوضة، يجب على الوكلاء الذكاء الصناعي الأخلاقي أن يعملوا من خلال أطر أذونات يمكن إبطالها على الفور، وفقًا لما قاله كورزاي.

بالنسبة للرئيس التنفيذي لجيزة، الرسالة الأساسية واضحة: يجب أن تُدمج الاعتبارات الأخلاقية في الهندسة المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة متأخرة.

“في DeFi، حيث تكون أصول المستخدمين المالية معرضة للخطر، يجب أن تُدمج الاعتبارات الأخلاقية في البنية المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة ثانوية”، قال كورزاي.

هذه النهج “الأمن أولاً” ضروري لبناء الثقة وضمان تطوير وكلاء الذكاء الاصطناعي بشكل مسؤول. وبالنظر إلى أسواق تمويل (DeFi) المتمركزة، والتي أصبحت أكثر تعقيدًا، كشف كورزاي أنه الآن من الممكن نشر وكلاء الذكاء الاصطناعي لتحسين مواقع المستخدمين عبر البروتوكولات الرائدة وتنفيذ استراتيجيات معقدة بينما يحتفظ المستخدمون بالسيطرة الكاملة على الأموال.

‘المالية’ Xenocognitive

وفي الوقت نفسه، يُجادِل الرئيس التنفيذي بأن حماية المستخدم الفعالة في ديفي تأتي من تصميم المنتج القوي، وليس فقط من التنظيم الخارجي. يقول إن هذا النهج “الأمان-بالتصميم” يسعى لخلق نظام بيئي حيث يكون الأمان “جوهريًا”، مما يقلل من الحاجة إلى تنظيم صارم.

يؤكد كورزاي أن بناء الأنظمة الآمنة بطبيعته يوافق مصالح أصحاب المصلحة ويشارك بشكل استباقي مع الجهات التنظيمية لتشكيل سياسات المستقبل. يتم التركيز على خلق قيمة من خلال منتجات مصممة بشكل جيد، مما يجعل الامتثال نتيجة طبيعية بدلاً من عقبة تعيق الابتكار.

نظرًا للمستقبل، قال كورزاي إنه يتوقع أن تهيمن “التمويل الفكري الأجنبي” بحلول عام 2030، حيث ستظهر وكلاء الذكاء الاصطناعي كواجهة سوقية رئيسية، تتجاوز حدود المعرفة الإدراكية البشرية. في ذلك الوقت، سيحدد البشر الأهداف الاستراتيجية بينما ستتولى وكلاء الذكاء الاصطناعي التنفيذ.

“لن تكون منحنى الاعتماد خطيًا - سيكون تصاعديًا. بمجرد أن تظهر هذه الوكالات قدرتها على تفوق العمليات اليدوية باستمرار مع الحفاظ على ضمانات الأمان، سيصبحون الطريقة الافتراضية للتفاعل مع الأسواق المالية”، أضاف الرئيس التنفيذي.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات