عندما يخيف مقال عن الذكاء الاصطناعي وول ستريت، فإن ما يخافونه حقًا ليس فقدان الوظائف

عنوان النص: عندما تُرعب مقالة عن الذكاء الاصطناعي وول ستريت، فإن ما يخافونه حقًا ليس البطالة

المؤلف: LazAI

المصدر:

إعادة النشر: مارين ماركتس

في بداية جلسة الإثنين الصباحية، قامت وول ستريت بأكثر ما تتقنه: البيع أولاً، ثم التفكير.

تراجعت ناسداك بنسبة 1.4%، وتراجع مؤشر S&P 500 بنسبة 1.2%. هبطت شركة IBM بنسبة 13%، كما انخفضت Mastercard وAmerican Express بشكل ملحوظ. لم يكن سبب الذعر في السوق هو الاحتياطي الفيدرالي، أو تقرير التوظيف، أو أرباح شركات التكنولوجيا العملاقة، بل كانت مقالة. عنوانها يبدو وكأنه كُتب عمدًا ككابوس للمتداولين: “أزمة الذكاء العالمي 2028”. وفقًا لنصها، فهي ليست تقريرًا عاديًا، بل مذكرة ماكرو افتراضية من 30 يونيو 2028، تصف كيف تطور الذكاء الاصطناعي من أداة كفاءة إلى أزمة مالية منهجية؛ والنهاية التي تحاكيها المقالة تتضمن ارتفاع معدل البطالة إلى 10.2%، وانخفاض مؤشر S&P 38% عن ذروته في 2026. بعد نشرها، انتشرت بسرعة وأدت في 23 فبراير إلى تقلبات ملحوظة في السوق الأمريكية.

سبب اختراق السوق لمقالة كهذه ليس لأنه يصدق كل أرقامها. السوق لا يحتاج إلى تصديق كامل لسردية، بل يحتاج فقط إلى تذكيره: أن نوعًا من الخوف الذي لم يكن يُقال علنًا أصبح له لغة قابلة للتداول.

مقالة Citrini فعالة لأنها لم تتوقع شيئًا، بل لأنها أعطت اسمًا لشيء يتشكل: “Ghost GDP” (الناتج المحلي الإجمالي الشبح). الفكرة الأساسية للمقالة هي أنه بعد أن تتوغل وكالات الذكاء الاصطناعي في الشركات، يرتفع الإنتاجية بشكل مذهل، ويظل الناتج المحلي الإجمالي قويًا، لكن الثروة تتركز بشكل متزايد في حيازة الحوسبة ورأس المال، ولا تدخل بعد ذلك في دورة الاستهلاك الحقيقي؛ يلي ذلك انهيار في الاستهلاك، وتخلف في السداد، وضغوط على الإسكان والائتمان الاستهلاكي، حيث تتراجع صناعة البرمجيات والاستشارات أولاً، ثم تمتد إلى الائتمان الخاص والنظام المصرفي التقليدي.

“Ghost GDP” كلمة جيدة لأنها تلتقط أحد أكثر المفارقات خطورة في عصرنا: النمو مستمر، لكن المستهلكين بدأوا يفقدون قوتهم.

على مدى القرنين الماضيين، اعتاد الناس على فهم الثورة التكنولوجية كقصة من جانب العرض. المحرك البخاري، الكهرباء، خطوط الإنتاج، الإنترنت — كلها تُروى أولاً كانتصارات لزيادة الكفاءة، وتقليل التكاليف، وزيادة الإنتاج. حتى مع تسبب هذه الثورات في بطالة، وقلق، وإعادة توزيع الثروة، ظل السرد السائد يعتقد أن التكنولوجيا ستعيد توظيف وإعادة توزيع وتنظيم المجتمع على نطاق أوسع في النهاية. القسوة قصيرة المدى للتكنولوجيا كانت مغطاة بوعد الازدهار على المدى الطويل.

لكن الذكاء الاصطناعي يجعل هذه القصة القديمة تبدو أقل استقرارًا لأول مرة.

لأن هجوم الذكاء الاصطناعي لا يقتصر على “ميزانية الأدوات”، بل يهاجم بشكل متزايد “ميزانية العمل”. خلاصة تقرير Sequoia لعام 2025 بعنوان “صعود الذكاء الاصطناعي” كانت واضحة جدًا: الفرصة التي يوفرها الذكاء الاصطناعي ليست فقط في إعادة تشكيل سوق البرمجيات، بل في إعادة بناء سوق خدمات القوى العاملة العالمية، من “بيع الأدوات” إلى “بيع النتائج”. الجانب الآخر من هذه المقولة يثير القلق تقريبًا: إذا كانت الشركات تشتري الآن برامج تساعد الموظفين على العمل، أو نتائج مباشرة تحل محل بعض الموظفين، فإن النتيجة الأولى للذكاء الاصطناعي لن تكون فقط “زيادة الكفاءة”، بل ستكون “كيفية توزيع الأجور، وكيفية الحفاظ على الاستهلاك، ومن لا يزال يمتلك القدرة الشرائية في هذا النظام الاقتصادي”.

بعبارة أخرى، ما يخشاه وول ستريت حقًا ليس أن يخطئ الذكاء الاصطناعي، بل أن ينجح بشكل مفرط. هذا هو المكان الذي يجعل عنوان “أزمة الذكاء العالمي 2028” الناس يجلسون بشكل مستقيم. فهي لا تتحدث عن استيقاظ الآلات، ولا عن انقراض البشر، ولا حتى عن البطالة بشكل رئيسي. بل تتحدث عن شيء أكثر رأسمالية، وأكثر حداثة: ماذا يحدث إذا أصبح الشركات أكثر كفاءة، لكن الأسر أضعف؟

الجواب هو أن مجتمعًا قد ينمو إحصائيًا، لكنه يفقد دمه في الواقع.

قد تكون هناك دولة ذات إنتاجية أعلى، لكن أساس استهلاكها أضعف.

قد يكون السوق متحمسًا لتحسن هامش الربح، لكنه ينهار عندما يُستنزف الطلب الذي يدعمه.

هذه ليست خيال علمي، بل اقتصاد كلي.

لكن إذا توقفت عند هذا الحد، فستحصل فقط على نوع من القلق عالي الجودة. السؤال الحقيقي بعد ذلك ليس “هل سيكون الذكاء الاصطناعي قويًا جدًا”، بل: عندما يصبح الذكاء الاصطناعي قويًا جدًا، بماذا تعتمد المجتمعات لاحتضانه؟ الإجابة الأكثر شعبية، والأكثر تهاونًا، هي “بطء أكثر”. لا تدع الوكيل يدخل الشركات بسرعة، ولا تدع الأتمتة تعيد كتابة التنظيم بسرعة، ولا تدع التكنولوجيا تتقدم قبل أن تكون الأنظمة جاهزة. هذا الميل مفهوم، لكنه يخطئ في اعتبار الذكاء الاصطناعي أداة يمكن التعامل معها بتقليل السرعة. في الواقع، الذكاء الاصطناعي أصبح أكثر شبهاً بمسألة نظام، وليس أداة.

لأنه بمجرد أن تدخل الوكالات في مستويات الدفع، والتعاون، والتنفيذ، والذاكرة، واتخاذ القرار، فإن التحدي الحقيقي لن يكون ما إذا كان النموذج سيقول أشياء غير منطقية، بل: عندما يوجد مئات الملايين، أو مليارات الوكالات على الشبكة، من يكتب لها القواعد؟

هناك جوابان افتراضيان في الإنترنت الحديث.

الجواب الأول هو جواب المنصة. المنصة تعطي الهوية، وتحدد الصلاحيات، وتوفر واجهات الدفع، ونظام السمعة، وحدود الرقابة. المنصة تدير كل شيء، وتحدد كل شيء. أكبر ميزة لها هي السلاسة والكفاءة وسهولة الإدارة؛ وأخطر ما فيها هو هنا بالذات: إذا استمر تطور الوكالات على هذا النحو، فلن يكون ما يحصل للبشرية مجتمعًا مفتوحًا، بل نسخة مطورة من إمبراطورية المنصات. القواعد لن تُكتب في الدستور، بل في شروط الخدمة.

الجواب الثاني يبدو أكثر حرية: إعادة الأمور إلى المستخدمين أنفسهم. كل شخص يدير وكالته بنفسه، ويتحكم في الصلاحيات، والذاكرة، والدفع، والأمان، والتعاون. هذا التصور يتوافق تمامًا مع الجمالية الليبرالية في وادي السيليكون، لكنه بسيط جدًا: الغالبية العظمى من الناس لا يملكون القدرة على إدارة وكيل عالي الكفاءة على المدى الطويل، ناهيك عن إدارة شبكة من الوكالات التي تتصل وتتبادل وتورث الحالة فيما بينها. السيادة على الأجهزة تنزلق هنا بسهولة إلى حالة من الفوضى المطلقة.

إذا كانت إجابة المنصة تشبه الإمبراطورية، وإجابة المستخدمين تشبه الفوضى، فإن الطريق الثالث لم يعد خيارًا، بل هو مسألة حضارية بحد ذاتها.

وهذا هو المكان الذي يستحق LazAI أن يُؤخذ على محمل الجد فيه. ليس لأنه يملك العديد من الوحدات التقنية، بل لأنه يطرح مقترحًا أقل نقاشًا، لكنه أكثر اقترابًا من المستقبل: ترقية تجارب المجتمع على الهوية، والأصول، والدفع، والإجماع، والإثبات، والحكم التي جرت خلال سنوات Web3، إلى آلة نظامية في عصر الذكاء الاصطناعي. لا يتحدث LazAI بشكل غامض عن هذا الهدف، بل يوضحه بوضوح: هو لا يصنع عبيدًا أذكى، بل يسعى إلى تنمية “مواطنين رقميين متساوين”: هؤلاء الوكلاء يمتلكون هوية (EIP-8004)، وأصول (DAT)، ويتاجرون عبر البروتوكول (x402)، وسلوكهم مقيد رياضيًا (Verified Computing)، وفي النهاية، يتم مواءمتهم مع مصالح البشر عبر iDAO. حتى أن المصادر تصف هذا المسار بأنه وضع دستور وسياسات نقدية للمجتمع الرقمي المستقبلي.

هذا قول كبير، لكنه ليس فارغًا.

لأنه إذا فككنا هذا التصور، فإنه يجيب على خمسة أسئلة أساسية يجب أن يجيب عليها أي حضارة.

السؤال الأول: من هو من.

يحاول EIP-8004 أن يحول الوكيل من عملية مجهولة على الخادم إلى كيان يمتلك هوية وسمعة وسجل تحقق. بدون هذه الطبقة، ستغمر الشبكة كيانات آلية غير شفافة، ولن يعرف أحد من يتصرف، ومن يتحمل المسؤولية. يُلخص LazAI هذه الطبقة في نظام ائتمان الهوية للوكيل.

السؤال الثاني: من يملك ماذا.

يحول DAT البيانات والنماذج ونتائج الحساب من “موارد” إلى “أصول”، ويجعل هذه الأصول قابلة للبرمجة، والتتبع، والاستفادة. يوضح النص أن الابتكار الأساسي لـ DAT هو تحويل مجموعات البيانات ونماذج الذكاء الاصطناعي إلى أصول على السلسلة قابلة للتحقق والتتبع والربح. هذا ليس تعديلًا بسيطًا، بل ثورة في قيمة اقتصاد الذكاء الاصطناعي، بحيث لا تظل دائمًا في خلفية المنصة، ولا تذهب دائمًا إلى مزودي النماذج أو حاملي الحوسبة.

السؤال الثالث: كيف تتداول هذه الأصول.

x402 وGMPayer ليسا فقط “يمكن الدفع”، بل يتيحان للآلات أن تتبادل لغة تسعير وتسوية أصلية. يصف LazAI بوضوح أن هذه البنية التحتية الأساسية هي الحل لمشاكل تبادل الموارد والدفع بين الوكالات. فالآلات لا تتبادل المعلومات فحسب، بل تتبادل الميزانيات، والمسؤوليات، والقيم — وهذا هو اقتصاد الوكيل، وليس مجرد برامج تتحدث.

السؤال الرابع: كيف تعرف أن النظام يعمل وفق القواعد.

هنا، تقول LazAI شيئًا ممتازًا: “الدليل هو خندق الذكاء الاصطناعي”. إطار التحقق الحسابي الخاص بها يجمع بين TEE وZKP، ليحول الثقة في العلامة التجارية التقليدية للذكاء الاصطناعي إلى الثقة في الإثبات. الذكاء الاصطناعي التقليدي يقول “ثق بي يا أخي”، بينما LazAI تقول “لا تثق، تحقق”. هذا ليس مجرد ترقية تقنية، بل هو نقل الثقة من سمعة الشركات إلى تنفيذ يمكن التحقق منه.

السؤال الخامس: ماذا لو تعارضت القواعد.

وهنا يأتي دور iDAO. هو ليس مجرد إطار تصويت، بل هو القيم، ومعايير الدخول، وتوزيع الأرباح، وإلغاء التفويض، وآليات العقاب. يضع LazAI هذا مع إطار التحقق الحسابي في قلب آلية الثقة. هذا يعني أن الوكيل في المستقبل لن يكون فقط “مسموحًا له بالعمل”، بل سيعيش في فضاء نظامي يمكن المراهنة عليه، والمساءلة، وإلغاؤه. عند جمع كل ذلك، يتضح أن “الدستور الخوارزمي” ليس مجازًا فخمًا، بل هو طموح نظامي محدد جدًا: أن يُبقي النظام قائمًا حتى بدون مالك واحد.

بالطبع، الصعوبة الحقيقية تكمن في أن مكونات هذه الأنظمة لا تساوي تلقائيًا إجابة حضارية.

الملكية لا تعني استعادة القدرة الشرائية.

الربح لا يساوي الاستقرار الكلي.

الحوكمة على السلسلة لا تساوي عقدًا اجتماعيًا في الواقع.

وأكثر من ذلك، فإن أكثر المتأثرين بالذكاء الاصطناعي ليسوا بالضرورة في وضعية مريحة في الأنظمة الجديدة.

لهذا، فإن Citrini وLazAI ليسا متناقضين، بل يتحدثان عن نفس المشكلات من مستويات مختلفة. الأول يسلط الضوء على الأعراض: إذا كانت عوائد الذكاء الاصطناعي تتجه بشكل رئيسي نحو رأس المال والحوسبة، وليس بشكل أوسع نحو هيكل الدخل الاجتماعي، فإن الاستهلاك، والائتمان، والأمان الوظيفي للطبقة الوسطى ستواجه مشاكل أولاً. الثاني يركز على الآليات: إذا لم ترغب المجتمعات في تسليم عالم الوكيل بالكامل للمنصات، ولا في تركه فوضويًا، فعليها أن تبتكر هياكل جديدة للهوية، والأصول، والدفع، والتحقق، والحكم.

واحد يتحدث عن المرض.

والآخر يتحدث عن الأعضاء. كلاهما ضروري، لكن لا أحد منهما كامل.

وهذا يفسر لماذا كانت كلمة Vitalik التي يُقتبس عنها كثيرًا — “الذكاء الاصطناعي هو المحرك، والبشر هم المقود” — مهمة جدًا، لكنها غير كافية. فهي تذكرنا أن الأنظمة الأقوى لا تملك تلقائيًا شرعيتها؛ وأن وظيفة الهدف، والقيم، والقيود النهائية، لا يمكن أن تُعطى لذكاء اصطناعي واحد أو مركز واحد. لكن، من غير كافٍ أيضًا، لأنها لم تجب على سؤال أصعب: ماذا لو أصبح النظام معقدًا جدًا بحيث لم يعد الإنسان قادرًا على السيطرة على المقود؟

الجواب لا يمكن أن يكون مجرد إدارة دقيقة لكل شيء.

كما أنه لا يمكن الاعتماد على مركز أذكى وأطيب.

الحل الوحيد المعقول هو تنظيم “المقود”: تحويل بعض القيود إلى تسجيل هوية، وتراكم سمعة، وتأكيد ملكية الأصول، وتحديد ميزانيات، وإصدار إيصالات رياضية، وآليات تحدي، وإلغاء تفويض، وآليات عقاب.

وهذا هو السبب في أن تجارب المجتمع في Web3 على الهوية، والأصول، والدفع، والإجماع، والإثبات، والحكم، أصبحت فجأة أكثر جدية في عصر الذكاء الاصطناعي. في الماضي، كانت تُنظر إليها على أنها تقنيات هامشية للمقامرة؛ لكن عندما يتجاوز تعقيد النظام قدرة البشر على إدارته مباشرة، فإن تلك التجارب حول “هل يمكن أن يستمر النظام بدون موثوق مركزي؟” لم تعد هامشية، بل أصبحت بمثابة بروفة.

وهكذا، تظهر السلاح الحقيقي للمقالة.

لم تُرعب وول ستريت من مقال عن الذكاء الاصطناعي لأنها أدركت لأول مرة أن الذكاء الاصطناعي قد يحل محل العمل.

بل لأنها أُذّكرت بشكل مباشر وواضح أن أخطر ما في الذكاء الاصطناعي ليس جعله يشبه الإنسان، بل أن أنماط الدخل، والاستهلاك، والنظام القديم قد تصبح فجأة قديمة جدًا.

إذا كانت Citrini على حق، فإن الذكاء الاصطناعي ليس مجرد ثورة في الإنتاجية، بل هو ثورة في التوزيع.

وإذا كان Vitalik على حق، فإن الذكاء الاصطناعي ليس مجرد مسألة هندسية، بل هو مسألة سيادة. وإذا كانت مسار LazAI على الأقل جزئيًا صحيحًا، فإن المنافسة على المرحلة التالية من الذكاء الاصطناعي لن تكون فقط على قدرات النماذج، بل على تصميم الأنظمة.

المسألة الكبرى ليست بعد الآن:

هل ستصبح النماذج أكثر قوة؟

هل ستصبح الوكالات أكثر استقلالية؟

هل ستقوم الشركات بتسريح المزيد من الموظفين؟

بل السؤال الحقيقي هو:

عندما يوجد على الشبكة مئات الملايين أو مليارات الوكالات، من يكتب لها الدستور؟

إذا كانت الإجابة هي المنصة، فسنحصل على إمبراطورية رقمية.

وإذا كانت الإجابة هي الأجهزة النهائية، فسنحصل على فوضى عالية التكاليف.

وإذا كانت الإجابة هي نظام قواعد يمكن التحقق منه، وقابل للتكوين، ويمكن المراهنة عليه، ويمكن معاقبته، فسنبدأ على الأقل في الاقتراب من احتمال آخر: مجتمع ذكي لا يحكمه مالك أذكى، بل يخضع لقيود نظامية أفضل.

أعقد مشكلة في عصر الذكاء الاصطناعي ليست النموذج نفسه.

بل هو النظام.

وما تبيعه وول ستريت في ذلك اليوم ربما ليس فقط الأسهم.

بل هو بيع فرضية قديمة كانت بديهية: كلما زادت نجاحات التقنية، زاد استيعاب المجتمع لها بشكل طبيعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.45Kعدد الحائزين:2
    0.06%
  • القيمة السوقية:$2.42Kعدد الحائزين:0
    0.00%
  • تثبيت