وكلاء الذكاء الاصطناعي الذين يقومون بعملك أثناء نومك يبدو رائعًا. الواقع أكثر فوضوية—"إنه مثل طفل صغير يحتاج إلى مراقبة"

قد تعمل سمر يوي على السلامة والتوافق في فريق الذكاء الفائق في شركة ميتا، لكنها تعترف بأنها ليست محصنة ضد الثقة الزائدة عندما يتعلق الأمر بوكيلات الذكاء الاصطناعي المستقلة.

فيديو موصى به


في منشور على منصة إكس يوم الاثنين، وصفت يوي كيف أن وكلات الذكاء الاصطناعي المستقلة التي أنشأتها باستخدام OpenClaw—المصممة للعمل محليًا على جهاز Mac mini—حذفت صندوق بريدها بالكامل، متجاهلة التعليمات بالتوقف وطلب التأكيد أولاً.

قالت: «اضطررت إلى الركض إلى جهاز Mac Mini الخاص بي كما لو أني أفرّق قنبلة». وأضافت أن ذلك كان «خطأ مبتدئ». كانت سير العمل تعمل بشكل جيد في صندوق بريد تجريبي كانت تستخدمه لاختبار الوكيل بأمان لأسابيع، لكنها فقدت في الصندوق الحقيقي تعليماتها الأصلية.

تتناقض تجربة يوي بشكل صارخ مع منشورات فيروالية مثل ثورة الكركند: لماذا غيرت وكلات الذكاء الاصطناعي التي تعمل على مدار الساعة كل شيء، حيث يدعي بيتر ديامانديس أن الذكاء الاصطناعي المستمر هو أكثر سلاسة.

كتب ديامانديس: «دعني أخبرك كيف يبدو استخدام هذا». «تستيقظ في الصباح ويقوم وكيلك—اسميه سكيبي، ساخر بشكل مرح وقادر بشكل غريب—بإنجاز ثماني ساعات من العمل أثناء نومك. قرأ ألف صفحة من الماركداون. نظم ملفاتك. أعد صياغة ثلاثة خطط مشاريع. حجز سفرك. بحث عن السؤال الذي كان لديك في الساعة 11 مساءً ونسيت أمره.»

وأضاف: «عندما توقف جهاز Mac mini الخاص بي عن العمل لمدة ست ساعات، شعرت بالانسحاب». «كأن أعز أصدقائي اختفى.»

تُظهر هاتان الحالتان المتناقضتان لوكالات الذكاء الاصطناعي مدى التوتر في جوهر الدفع الحالي نحو «الذكاء الاصطناعي المستمر». فبينما تجعل أدوات مثل OpenClaw وClaude Code من الممكن تقنيًا تشغيل الوكلاء لفترات طويلة، يتزايد الحماس حول فكرة الذكاء الاصطناعي الذي يعمل أثناء نومك. لكن في الممارسة العملية، يقول المستخدمون الأوائل إن الاستقلالية لا تزال هشة وغير متوقعة وتتطلب جهدًا كبيرًا للإدارة. بدلاً من أن تحل محل العمل البشري، غالبًا ما تتطلب وكلات اليوم مراقبة مستمرة، وحواجز أمان، وتدخل، خاصة عندما تتجاوز المخاطر حدود التجارب منخفضة المخاطر.

تعمل وكلات الذكاء الاصطناعي بشكل أفضل عندما تكون المهام بسيطة ومنخفضة المخاطر

قال شيمال أنادكات، الذي عمل سابقًا مهندس ذكاء اصطناعي تطبيقي في OpenAI، إن معظم الوكلاء الناجحين اليوم لا يزالون يتطلبون فحوصات بشرية متكررة أو يقتصرون على مهام محددة بشكل محكم وواضح—على الرغم من أنه أكد أن هذا سيتغير مع تحسن تقنيات القياس والتقييم.

قال أنادكات: «نظام يحقق دقة بنسبة 95% في الخطوات الفردية يصبح فوضويًا على سير عمل مستقل من 20 خطوة». «التخطيط على المدى الطويل لا يزال ضعيفًا». ونتيجة لذلك، يوضح أنادكات أن الوكلاء قد يؤدون بشكل جيد في سلاسل مهام قصيرة، لكنهم يميلون إلى الانهيار عند طلب إدارة مشاريع معقدة ومتعددة الأيام. الذاكرة أيضًا من القيود الكبرى: «في العديد من الوكلاء، الذاكرة إما غير موجودة أو هشة. أنت بحاجة إلى أنظمة يمكنها الحفاظ على نموذج متماسك لبيئة عملك، وأولوياتك، وقيودك.»

لكن ذلك لا يعني أن وعد وكلات الذكاء الاصطناعي كله خداع، وفقًا ليعوف شحام، العالم السابق الرئيسي في جوجل، والأستاذ الفخري في ستانفورد، والمؤسس المشارك لشركة AI21 Labs. لكنه يعني أن هناك خطر أن يتقدم الناس على أنفسهم. يوضح شحام أن وكلات الذكاء الاصطناعي اليوم تعمل بشكل أفضل عندما تكون المهمة منخفضة المخاطر، غير محددة بشكل صارم، ورخيصة الخطأ.

قال: «المطورون يحبون الألعاب، ولديهم لعبة يمكنها أن تفعل أشياء رائعة». «طالما أن ما يفعلونه بسيطًا إلى حد ما ومنخفض المخاطر مع تحمل عالٍ للأخطاء، فهذا جيد». على سبيل المثال، إذا أردت لوكيلك أن يقرأ 10,000 موقع ويب ويقوم بشيء مثير للاهتمام بالنتائج ليعطيك معلومات صغيرة خلال الليل قد تكون مفيدة.

لكن بالنسبة لعمليات العمل المؤسسية الحرجة، المعايير أعلى بكثير. تحتاج الشركات إلى أنظمة يمكن التحقق منها، وتكرارها، وفعالة من حيث التكلفة—وهي متطلبات تضعف بسرعة وعد الوكالة المستقلة بالكامل والتي تعمل على مدار الساعة. في مجالات منظمة بشكل كبير مثل البرمجة أو الرياضيات، يمكن تحقيق أتمتة أعمق بالفعل. لكن بالنسبة لمعظم العمليات التجارية الواقعية، يقول شحام إن العمل المطلوب لجعل الوكلاء موثوقين غالبًا ما يفوق الفائدة.

أشار بريت غرينستاين، رئيس قسم الذكاء الاصطناعي في شركة الاستشارات West Monroe، إلى أن أدوات مثل OpenClaw تشبه نقطة التحول التي حدثت مع الذكاء الاصطناعي التوليدي عندما أطلقت ChatGPT في 2022—للمرة الأولى، جعلت فكرة وكلات الذكاء الاصطناعي متاحة. ومع ذلك، فهي ليست حلاً سحريًا على مدار الساعة.

قال: «يمكن أن يعمل لفترة طويلة، ويعمل على الأمور، لكنه مثل طفل صغير يحتاج إلى إشراف». بعض المهام معقولة أن تتم أثناء النوم، مثل فحص رسائل لينكدإن أو تتبع الأخبار. «لست متأكدًا من أنني أود أن يجيب على ملاحظات العملاء أثناء نومي»، قال.

القدرة على تفويض المهام لوكيل ذكاء اصطناعي تبدو قوية

ومع ذلك، لا شك أن القدرة على تفويض المهام الواقعية لوكيل ذكاء اصطناعي جذابة جدًا للمستخدمين، أكد غرينستاين. أشار إلى تجربته الخاصة في تفويض وكيل ذكاء اصطناعي مهمة بسيطة وهي ترتيب ملابسه ليتم تنظيفها، ومشاهدته وهو يكمل المهمة بصمت من البداية إلى النهاية.

تواصل الوكيل بشكل مستقل مع المنظف، ونسق مع مواعيد الاستلام عبر البريد الإلكتروني، وراقب كاميرا الباب لتأكيد الاستلام، وأبلغ غرينستاين عند اكتمال المهمة. أظهرت الحادثة كيف يمكن للوكلاء العمل عبر أنظمة متعددة والتكيف عندما لا تسير الأمور كما هو مخطط. لكنها أيضًا أظهرت لماذا لا تزال هذه الأدوات تتطلب حواجز أمان صارمة وإشرافًا—خصوصًا قبل نشرها في بيئات الشركات.

قال غرينستاين: «OpenClaw مُعد بحيث لا يشعر معظم الناس بأنه آمن». «لا يبدو ناضجًا بما يكفي ليكون جزءًا موثوقًا من حياتنا بعد». ولتقبل الذكاء الاصطناعي في الحياة اليومية أو العمليات التجارية، أضاف، يجب أن يكسب الثقة مع مرور الوقت—تمامًا كما تُبنى الثقة اجتماعيًا.

ومع ذلك، فإن الطلب واضح بالفعل. أشار غرينستاين إلى اللقاءات والتجمعات الصناعية المبكرة المخصصة لـ OpenClaw، وهي ظاهرة سريعة الظهور وصفها بأنها غير معتادة لأداة صغيرة كهذه. «يُظهر ذلك مدى جوع الناس للذكاء الاصطناعي المفيد حقًا»، قال—أنظمة تتجاوز الإجابة على الأسئلة وتبدأ في اتخاذ الإجراءات.

وصف آرون ليفي، الرئيس التنفيذي لشركة إدارة المحتوى والتعاون السحابية Box، ما يحدث الآن مع وكلات الذكاء الاصطناعي بأنه «ومضات صغيرة» لما قد يحدث في المستقبل.

قال: «بعض الومضات لا تتجسد، وبعضها يصبح المعيار». وأشار إلى قبل عامين عندما قدمت شركة الذكاء الاصطناعي Cognition وكيلًا مبكرًا يُدعى Devin، والذي كان يدمج مع Slack لتفويض المهام، وإصلاح الأخطاء، وتحليل البيانات، ومراجعة الشفرات. في ذلك الوقت، كان لا يزال يُنظر إليه على أنه شيء مستقبلي، لكن اليوم، «لا أحد يختلط عليه الأمر أن هذا أصبح ممارسة قياسية»، على حد قوله. «يمكنك فقط أن ترسل Slack إلى Claude Code ليعمل على أشياء—ما بدا كفكرة مجنونة تمامًا أصبح الآن المعيار لأي فريق هندسي حديث.»

لكن، بينما تتطور وكلات الذكاء الاصطناعي لتكون جيدة جدًا في أتمتة مهام محددة ومعزولة، فهي لا تزال ضعيفة في التعامل مع العمل الأوسع الذي يعتمد على السياق، والذي يشكل معظم الوظائف، أكد ليفي. قد تؤتمت وكلات الذكاء الاصطناعي مجموعة صغيرة من المهام تمامًا، لكنها تكافح مع البقية—بما في ذلك إدارة العلاقات والمشاركة في الاجتماعات.

قال: «عندما تسمع أن مختبر ذكاء اصطناعي يقول إنه سيؤتمت كل العمل المعرفي خلال 24 شهرًا، فذلك عادة تعريف ضيق جدًا للوظائف». «تعريف ما يمكن لوكيل أن يفعله ليس هو نفس تعريف الوظيفة التي يتم توظيف شخص فيها في الاقتصاد.»

عامل الثقة مهم عندما يمكن أن تسوء الأمور

قال أفيناش فوتكوري، عالم بيانات كبير في شركة تجزئة من فئة Fortune 500، إن معظم وكلات الذكاء الاصطناعي المؤسسية «تتطلب بالتأكيد مربية»، وأنها في الوقت الحالي لا يمكنها العمل إلا في بيئات مؤسسية ذات استقلالية محدودة جدًا وحواجز أمان واسعة. «المخاطر هائلة»، شرح.

على سبيل المثال، وصف بناء نظام وكيل للأمن السيبراني المؤسسي حيث لا تكتفي الوكلات بإطلاق التنبيهات وانتظار مراجعة بشرية، بل تحقق فيها بنشاط. بدلاً من إغراق المحللين بآلاف التحذيرات، تجمع الوكلات الأدلة في الوقت الحقيقي—تستعلم قواعد بيانات معلومات التهديد، وتحلل أنماط السلوك، وتقوم بفلترة الإيجابيات الكاذبة—قبل أن تقرر ما إذا كانت الحالة تتطلب تصعيدًا.

يعتمد النظام على استقلالية محدودة جدًا وحواجز أمان واسعة، مما يقلل من عبء العمل البشري دون إلغاء الإشراف.

في الأمن السيبراني، أوضح، إذا أخطأت الوكالة، فإن العواقب فورية وخطيرة. «إما أن تحظر العملاء الشرعيين (مما يتسبب في خسارة إيرادات هائلة) أو تسمح لمهاجم متطور بالدخول إلى الشبكة»، قال. «الأمر مهم جدًا إذا سارت الأمور بشكل خاطئ.»

وفقًا لبريانا وايتهيد، التي تدير استشارات عمليات الذكاء الاصطناعي حيث تبني أنظمة مدعومة بالذكاء الاصطناعي للمديرين التنفيذيين والمؤسسين، فإن الصناعة تمر بـ «مرحلة معايرة الثقة».

يمكن لوكلات الذكاء الاصطناعي أن تفعل أكثر مما يعتقد الكثيرون أنها تستطيع، ولكن أقل مما يروج له الضجيج.

قالت: «المهارة الحقيقية ليست في بناء الوكيل، بل في تصميم عملية التسليم». «معظم الناس إما يثقون بشكل مفرط في الوكلاء وينتهي بهم الأمر بتنظيف الفوضى، أو يراقبون كل مخرجات الوكيل ويتساءلون لماذا يشعر الذكاء الاصطناعي بأنه عمل أكثر بدلًا من أقل». الفكرة، على حد قولها، هي تصميم نقاط تسليم واضحة، حيث يمكن تفويض شيء كامل، أو مراجعة سريعة لشيء آخر، أو أن يظل شيء آخر للبشر فقط.

حتى الآن، قالت، إن الوكلاء «ممتازون حقًا» في ما أسمته الطبقة الوسطى من العمل المعرفي—«الأشياء التي كانت تستهلك 2-3 ساعات من يوم شخص ذكي، مثل تلخيص ملاحظات الاجتماعات إلى بنود عمل، وصياغة رسائل متابعة بصوت شخص معين، وجمع ملخصات البحث، وتنظيم الأولويات المتنافسة في خطة واضحة».

لكن أي شيء يتطلب قراءة الجو، أو التنقل في الغموض، أو اتخاذ قرارات تعتمد على العلاقات، غير جاهز لذروة عمل الوكيل الذكي. قالت: «كان لدي عميل يرغب في أتمتة تامة لاتصالات المستثمرين لديه». «كان بإمكان الذكاء الاصطناعي صياغة رسائل جميلة، لكنه لم يكن يستطيع أن يشعر عندما يفقد الممول اهتمامه ويحتاج إلى نهج مختلف. الوكيل صاغ البريد الإلكتروني، لكن الإنسان كان عليه أن يقرر ما إذا كان سيرسله أم لا.»

حتى الآن، قد يكون النوم بعيد المنال عند العمل مع وكلات الذكاء الاصطناعي

حتى الآن، قد يكون العمل مع وكلات الذكاء الاصطناعي أقل متعلقًا بالنوم أثناء عملها منه بالبقاء نصف يقظ أثناء ذلك. يمكن لأدوات مثل OpenClaw العمل لساعات طويلة، لكن بالنسبة للعديد من المستخدمين الأوائل، فإن هذا الاستقلال يأتي مع نوع جديد من اليقظة—فحص السجلات، مراجعة المخرجات، والتدخل قبل أن تسوء الأمور.

تم تصوير هذا الديناميكي في منشور فيروالي حديث بعنوان قلق الرموز، حيث وصف المستثمر نكونج كوثاري صديقًا يغادر حفلة مبكرًا—ليس لأنه تعب، بل لأنه يريد العودة لوكلاته. «لم يعد أحد يشكك في ذلك»، كتب كوثاري. «نصف الحضور يفكر في نفس الشيء. والنصف الآخر ربما يتحقق من تقدم وكلاتهم. في حفلة.»

حلم الذكاء الاصطناعي الذي يعمل أثناء النوم قد يكون حقيقيًا. لكن حتى الآن، لا يزال يوقظ الكثير من الناس.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت