مرحبًا بكم في عين على الذكاء الاصطناعي، مع المراسلة الذكية شارون جولدمان. في هذا العدد: الجانب البرّي من OpenClaw…صندوق الحملات الفائقة الجديد بقيمة 20 مليون دولار من Anthropic يواجه OpenAI…OpenAI يطلق أول نموذج مصمم لإنتاج سريع جدًا…Anthropic ستغطي زيادات أسعار الكهرباء لمراكز بياناتها الذكية…شركة Isomorphic Labs تقول إنها فتحت أفقًا بيولوجيًا جديدًا يتجاوز AlphaFold.
فيديو موصى به
قضت OpenClaw الأسابيع القليلة الماضية في إظهار مدى تهور وكالات الذكاء الاصطناعي — وجذبت في الوقت نفسه جمهورًا مخلصًا.
الوكيل الذكي المستقل مفتوح المصدر، الذي طوره بيتر ستاينبرغر وكان يُعرف في الأصل باسم ClawdBot، يأخذ روبوتات الدردشة التي نعرفها ونحبها — مثل ChatGPT وClaude — ويمنحها الأدوات والاستقلالية للتفاعل مباشرة مع حاسوبك ومع الآخرين عبر الإنترنت. فكر في إرسال رسائل البريد الإلكتروني، قراءة رسائلك، حجز تذاكر لحفلة موسيقية، إجراء حجوزات مطاعم، وأكثر من ذلك — على الأرجح وأنت تسترخي وتتناول الحلويات.
المشكلة في منح OpenClaw قوة استثنائية للقيام بأشياء رائعة؟ وليس من المستغرب أن تكون المشكلة في أنه يمنحها أيضًا الكثير من الفرص للقيام بأشياء لا ينبغي لها، بما في ذلك تسريب البيانات، تنفيذ أوامر غير مقصودة، أو أن يتم اختطافها بصمت من قبل المهاجمين، إما عبر البرمجيات الخبيثة أو من خلال هجمات “حقن الأوامر” (حيث يدرج شخص ما تعليمات خبيثة لوكيل الذكاء الاصطناعي في البيانات التي قد يستخدمها الوكيل).
يقول خبراء أمن المعلومات الذين تحدثت إليهم هذا الأسبوع إن الحماس حول OpenClaw هو أنه لا توجد قيود، مما يمنح المستخدمين بشكل أساسي قوة غير مقيدة لتخصيصه كيفما يشاؤون.
“القاعدة الوحيدة هي أنه لا توجد قواعد”، قال بن سيري، الشريك المؤسس ومدير التقنية في Zafran Security، التي تتخصص في إدارة تعرض التهديدات للشركات. “هذه جزء من اللعبة.” لكن تلك اللعبة يمكن أن تتحول إلى كابوس أمني، حيث أن القواعد والحدود هي جوهر الحفاظ على الحماية من القراصنة والتسريبات.
المخاوف الأمنية التقليدية
تقول أن كولن شا-بيليمر، زميل أبحاث في مركز جورجتاون للأمن والتكنولوجيا الناشئة (CSET)، حيث يعمل على مشروع CyberAI، إن المخاوف الأمنية هي مخاوف تقليدية جدًا. إعدادات الأذونات غير الصحيحة — من يُسمح له أو لها بفعل ماذا — تعني أن البشر قد يمنحون OpenClaw صلاحيات أكثر مما يدركون، ويمكن للمهاجمين استغلال ذلك.
على سبيل المثال، في OpenClaw، يأتي الكثير من الخطر من ما يسميه المطورون “المهارات”، وهي في الأساس تطبيقات أو ملحقات يمكن لوكيل الذكاء الاصطناعي استخدامها لاتخاذ إجراءات — مثل الوصول إلى الملفات، تصفح الإنترنت، أو تشغيل أوامر. الفرق هو أن OpenClaw يقرر بنفسه متى يستخدم هذه المهارات وكيف يربطها معًا، مما يعني أن خطأ بسيط في الأذونات يمكن أن يتصاعد بسرعة إلى شيء أكثر خطورة.
“تخيل أن تستخدمه للوصول إلى صفحة الحجز لمطعم، وأن يكون لديه أيضًا وصول إلى تقويمك الذي يحتوي على معلومات شخصية كثيرة”، قال. “أو ماذا لو كان برمجية خبيثة ووجد الصفحة الخطأ وقام بتثبيت فيروس؟”
يحتوي OpenClaw على صفحات أمان في وثائقه ويحاول إبقاء المستخدمين يقظين وواعين، قال شا-بيليمر. لكن المشاكل الأمنية تظل معقدة تقنيًا، وغالبًا ما يكون من الصعب على المستخدمين العاديين فهمها بالكامل. وعلى الرغم من أن مطوري OpenClaw قد يعملون جاهدين لإصلاح الثغرات، إلا أنهم لا يستطيعون حل المشكلة الأساسية المتمثلة في قدرة الوكيل على التصرف بشكل مستقل — وهو ما يجعل النظام جذابًا جدًا في المقام الأول.
“هذه هي التوتر الأساسي في مثل هذه الأنظمة”، قال. “كلما زادت صلاحياتهم، زادت متعة واهتمام الناس بهم — ولكن أيضًا زادت خطورتهم.”
الشركات الكبرى ستكون أبطأ في الاعتماد
اعترف سيري من Zafran Security أن هناك فرصة ضئيلة لوقف فضول المستخدمين عندما يتعلق الأمر بنظام مثل OpenClaw، لكنه أكد أن الشركات الكبرى ستكون أبطأ بكثير في اعتماد نظام غير قابل للسيطرة وغير آمن كهذا. بالنسبة للمستخدم العادي، قال، يجب أن يتعاملوا مع الأمر كما لو كانوا يعملون في مختبر كيميائي مع مادة متفجرة عالية الانفجار.
وأشار شا-بيليمر إلى أن من الإيجابي أن يحدث OpenClaw أولاً على مستوى الهواة. “سنتعلم الكثير عن النظام قبل أن يحاول أحد استخدامه على مستوى الشركات”، قال. “أنظمة الذكاء الاصطناعي يمكن أن تفشل بطرق لا يمكننا حتى تصورها”، أوضح. “[OpenClaw] يمكن أن يعطينا الكثير من المعلومات حول سبب تصرف نماذج اللغة الكبيرة المختلفة بهذه الطريقة، وعن مخاوف أمنية جديدة.”
لكن على الرغم من أن OpenClaw قد يكون تجربة هاوية اليوم، يرى خبراء الأمن أنه بمثابة معاينة لنوع الأنظمة الذاتية التي ستشعر الشركات في النهاية بالضغط لنشرها.
حتى الآن، ما لم يرغب أحد في أن يكون موضوعًا للبحث الأمني، قد يفضل المستخدم العادي الابتعاد عن OpenClaw، قال شا-بيليمر. وإلا، فلا تتفاجأ إذا تاه مساعد الذكاء الاصطناعي الشخصي الخاص بك إلى مناطق غير ودية جدًا.
هذه نسبة المهنيين الأمنيين الذين يبدون بعض الثقة في السماح للأنظمة الذاتية للذكاء الاصطناعي بالتصرف دون إشراف بشري، على الرغم من حذرهم، وفقًا لاستطلاع جديد شمل 1200 محترف أمني من شركة Ivanti، وهي شركة عالمية لبرمجيات تكنولوجيا المعلومات والأمن. بالإضافة إلى ذلك، وجد التقرير أن اعتماد الذكاء الاصطناعي الوكلي هو أولوية لـ87% من فرق الأمن.
ومع ذلك، يقول دانييل سبايسر، كبير مسؤولي الأمن في Ivanti، إنه لا ينبغي أن يكون فريق الأمن مرتاحًا جدًا لفكرة نشر الذكاء الاصطناعي المستقل. على الرغم من تفاؤل المدافعين بشأن وعد الذكاء الاصطناعي في الأمن السيبراني، إلا أن النتائج تظهر أيضًا أن الشركات تتخلف أكثر في مدى جاهزيتها للدفاع ضد مجموعة متنوعة من التهديدات.
“هذا ما أسميه ‘عجز جاهزية الأمن السيبراني’،” كتب في منشور على مدونة، “اختلال مستمر يتسع عامًا بعد عام في قدرة المنظمة على حماية بياناتها وأشخاصها وشبكاتها ضد المشهد التكنولوجي المتغير.”
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة العمل في الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر الجوال العالمي، برشلونة، إسبانيا.
16-19 مارس: مؤتمر Nvidia GTC، سان خوسيه، كاليفورنيا.
6-9 أبريل: HumanX، سان فرانسيسكو.
انضم إلينا في قمة الابتكار في مكان العمل من فورتشن 19-20 مايو 2026، في أتلانتا. لقد وُجدت الآن حقبة جديدة من الابتكار في مكان العمل — وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشرية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
OpenClaw هو الفتى السيء لوكلاء الذكاء الاصطناعي. إليك سبب قول خبراء الأمن أنه يجب أن تحذر
مرحبًا بكم في عين على الذكاء الاصطناعي، مع المراسلة الذكية شارون جولدمان. في هذا العدد: الجانب البرّي من OpenClaw…صندوق الحملات الفائقة الجديد بقيمة 20 مليون دولار من Anthropic يواجه OpenAI…OpenAI يطلق أول نموذج مصمم لإنتاج سريع جدًا…Anthropic ستغطي زيادات أسعار الكهرباء لمراكز بياناتها الذكية…شركة Isomorphic Labs تقول إنها فتحت أفقًا بيولوجيًا جديدًا يتجاوز AlphaFold.
فيديو موصى به
قضت OpenClaw الأسابيع القليلة الماضية في إظهار مدى تهور وكالات الذكاء الاصطناعي — وجذبت في الوقت نفسه جمهورًا مخلصًا.
الوكيل الذكي المستقل مفتوح المصدر، الذي طوره بيتر ستاينبرغر وكان يُعرف في الأصل باسم ClawdBot، يأخذ روبوتات الدردشة التي نعرفها ونحبها — مثل ChatGPT وClaude — ويمنحها الأدوات والاستقلالية للتفاعل مباشرة مع حاسوبك ومع الآخرين عبر الإنترنت. فكر في إرسال رسائل البريد الإلكتروني، قراءة رسائلك، حجز تذاكر لحفلة موسيقية، إجراء حجوزات مطاعم، وأكثر من ذلك — على الأرجح وأنت تسترخي وتتناول الحلويات.
المشكلة في منح OpenClaw قوة استثنائية للقيام بأشياء رائعة؟ وليس من المستغرب أن تكون المشكلة في أنه يمنحها أيضًا الكثير من الفرص للقيام بأشياء لا ينبغي لها، بما في ذلك تسريب البيانات، تنفيذ أوامر غير مقصودة، أو أن يتم اختطافها بصمت من قبل المهاجمين، إما عبر البرمجيات الخبيثة أو من خلال هجمات “حقن الأوامر” (حيث يدرج شخص ما تعليمات خبيثة لوكيل الذكاء الاصطناعي في البيانات التي قد يستخدمها الوكيل).
يقول خبراء أمن المعلومات الذين تحدثت إليهم هذا الأسبوع إن الحماس حول OpenClaw هو أنه لا توجد قيود، مما يمنح المستخدمين بشكل أساسي قوة غير مقيدة لتخصيصه كيفما يشاؤون.
“القاعدة الوحيدة هي أنه لا توجد قواعد”، قال بن سيري، الشريك المؤسس ومدير التقنية في Zafran Security، التي تتخصص في إدارة تعرض التهديدات للشركات. “هذه جزء من اللعبة.” لكن تلك اللعبة يمكن أن تتحول إلى كابوس أمني، حيث أن القواعد والحدود هي جوهر الحفاظ على الحماية من القراصنة والتسريبات.
المخاوف الأمنية التقليدية
تقول أن كولن شا-بيليمر، زميل أبحاث في مركز جورجتاون للأمن والتكنولوجيا الناشئة (CSET)، حيث يعمل على مشروع CyberAI، إن المخاوف الأمنية هي مخاوف تقليدية جدًا. إعدادات الأذونات غير الصحيحة — من يُسمح له أو لها بفعل ماذا — تعني أن البشر قد يمنحون OpenClaw صلاحيات أكثر مما يدركون، ويمكن للمهاجمين استغلال ذلك.
على سبيل المثال، في OpenClaw، يأتي الكثير من الخطر من ما يسميه المطورون “المهارات”، وهي في الأساس تطبيقات أو ملحقات يمكن لوكيل الذكاء الاصطناعي استخدامها لاتخاذ إجراءات — مثل الوصول إلى الملفات، تصفح الإنترنت، أو تشغيل أوامر. الفرق هو أن OpenClaw يقرر بنفسه متى يستخدم هذه المهارات وكيف يربطها معًا، مما يعني أن خطأ بسيط في الأذونات يمكن أن يتصاعد بسرعة إلى شيء أكثر خطورة.
“تخيل أن تستخدمه للوصول إلى صفحة الحجز لمطعم، وأن يكون لديه أيضًا وصول إلى تقويمك الذي يحتوي على معلومات شخصية كثيرة”، قال. “أو ماذا لو كان برمجية خبيثة ووجد الصفحة الخطأ وقام بتثبيت فيروس؟”
يحتوي OpenClaw على صفحات أمان في وثائقه ويحاول إبقاء المستخدمين يقظين وواعين، قال شا-بيليمر. لكن المشاكل الأمنية تظل معقدة تقنيًا، وغالبًا ما يكون من الصعب على المستخدمين العاديين فهمها بالكامل. وعلى الرغم من أن مطوري OpenClaw قد يعملون جاهدين لإصلاح الثغرات، إلا أنهم لا يستطيعون حل المشكلة الأساسية المتمثلة في قدرة الوكيل على التصرف بشكل مستقل — وهو ما يجعل النظام جذابًا جدًا في المقام الأول.
“هذه هي التوتر الأساسي في مثل هذه الأنظمة”، قال. “كلما زادت صلاحياتهم، زادت متعة واهتمام الناس بهم — ولكن أيضًا زادت خطورتهم.”
الشركات الكبرى ستكون أبطأ في الاعتماد
اعترف سيري من Zafran Security أن هناك فرصة ضئيلة لوقف فضول المستخدمين عندما يتعلق الأمر بنظام مثل OpenClaw، لكنه أكد أن الشركات الكبرى ستكون أبطأ بكثير في اعتماد نظام غير قابل للسيطرة وغير آمن كهذا. بالنسبة للمستخدم العادي، قال، يجب أن يتعاملوا مع الأمر كما لو كانوا يعملون في مختبر كيميائي مع مادة متفجرة عالية الانفجار.
وأشار شا-بيليمر إلى أن من الإيجابي أن يحدث OpenClaw أولاً على مستوى الهواة. “سنتعلم الكثير عن النظام قبل أن يحاول أحد استخدامه على مستوى الشركات”، قال. “أنظمة الذكاء الاصطناعي يمكن أن تفشل بطرق لا يمكننا حتى تصورها”، أوضح. “[OpenClaw] يمكن أن يعطينا الكثير من المعلومات حول سبب تصرف نماذج اللغة الكبيرة المختلفة بهذه الطريقة، وعن مخاوف أمنية جديدة.”
لكن على الرغم من أن OpenClaw قد يكون تجربة هاوية اليوم، يرى خبراء الأمن أنه بمثابة معاينة لنوع الأنظمة الذاتية التي ستشعر الشركات في النهاية بالضغط لنشرها.
حتى الآن، ما لم يرغب أحد في أن يكون موضوعًا للبحث الأمني، قد يفضل المستخدم العادي الابتعاد عن OpenClaw، قال شا-بيليمر. وإلا، فلا تتفاجأ إذا تاه مساعد الذكاء الاصطناعي الشخصي الخاص بك إلى مناطق غير ودية جدًا.
ومع ذلك، إليكم المزيد من أخبار الذكاء الاصطناعي.
شارون جولدمان
sharon.goldman@fortune.com
@sharongoldman
عين على الذكاء الاصطناعي
77%
هذه نسبة المهنيين الأمنيين الذين يبدون بعض الثقة في السماح للأنظمة الذاتية للذكاء الاصطناعي بالتصرف دون إشراف بشري، على الرغم من حذرهم، وفقًا لاستطلاع جديد شمل 1200 محترف أمني من شركة Ivanti، وهي شركة عالمية لبرمجيات تكنولوجيا المعلومات والأمن. بالإضافة إلى ذلك، وجد التقرير أن اعتماد الذكاء الاصطناعي الوكلي هو أولوية لـ87% من فرق الأمن.
ومع ذلك، يقول دانييل سبايسر، كبير مسؤولي الأمن في Ivanti، إنه لا ينبغي أن يكون فريق الأمن مرتاحًا جدًا لفكرة نشر الذكاء الاصطناعي المستقل. على الرغم من تفاؤل المدافعين بشأن وعد الذكاء الاصطناعي في الأمن السيبراني، إلا أن النتائج تظهر أيضًا أن الشركات تتخلف أكثر في مدى جاهزيتها للدفاع ضد مجموعة متنوعة من التهديدات.
“هذا ما أسميه ‘عجز جاهزية الأمن السيبراني’،” كتب في منشور على مدونة، “اختلال مستمر يتسع عامًا بعد عام في قدرة المنظمة على حماية بياناتها وأشخاصها وشبكاتها ضد المشهد التكنولوجي المتغير.”
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة العمل في الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر الجوال العالمي، برشلونة، إسبانيا.
16-19 مارس: مؤتمر Nvidia GTC، سان خوسيه، كاليفورنيا.
6-9 أبريل: HumanX، سان فرانسيسكو.
انضم إلينا في قمة الابتكار في مكان العمل من فورتشن 19-20 مايو 2026، في أتلانتا. لقد وُجدت الآن حقبة جديدة من الابتكار في مكان العمل — وتم إعادة كتابة الكتاب القديم. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا لاستكشاف كيف يتقاطع الذكاء الاصطناعي والبشرية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.