عبر المؤسسات الكبرى، تتسارع وتيرة انتقال الذكاء الاصطناعي من مرحلة التجربة إلى العمل اليومي. هذا التحول يجبر القادة على مواجهة قضايا لا يمكن تفويضها للتكنولوجيا: كيف يتم قياس الأداء، كيف يتم دعم الأشخاص خلال التغيير، وكيف تظهر القيم عندما تبدأ الآلات في أداء المزيد من الأعمال. ليست كل شركة تتعامل مع هذه الأسئلة بنفس الطريقة.
فيديو موصى به
بعض المؤسسات ترد على ذلك بالسعي لتحقيق الكفاءة بسرعة. آخرون يتراجعون لإعادة تعريف، أو تأكيد، نوع الشركة التي يرغبون في أن يكونوا عليها مع تزايد دمج الذكاء الاصطناعي في المنظمة؛ وما الالتزامات التي لا زالوا مدينين بها للأشخاص الذين يديرون الأعمال.
وفي الممارسة العملية، يعني ذلك أن كبار التنفيذيين يصارعون مع العقد الاجتماعي بين الشركة وموظفيها. مع تولي الذكاء الاصطناعي مزيدًا من التنفيذ، يجب على القادة أن يقرروا ما يبقى إنسانياً، وما يتحول إلى آلي، وكم من الاضطراب يمكن لثقافتهم استيعابه على طول الطريق. هذه قرارات قيادية تتعلق بالثقة، والمساءلة، ونوع المنظمة التي يُطلب من الناس الالتزام بها.
في مجموعة إنجكا، أكبر بائع تجزئة لإيكيا في 32 دولة، أدرك القادة هذا التوتر مبكرًا وشرعوا في اعتماد الذكاء الاصطناعي بطريقة لا تهدد ثقافتهم. كانت التكنولوجيا ستتقدم، ولكن ليس بدون قيادة ثابتة ودعم واضح لشعبهم. تبرز طريقة إيكيا كمثال على كيفية اختيار مؤسسة كبيرة أن تترك القيم، وليس فقط الإنتاجية، تشكل كيفية دخول الذكاء الاصطناعي إلى العمل اليومي.
في إيكيا، يظهر الالتزام بالموظفين في كيفية حديث القادة الكبار عن شعبهم ومسؤولياتهم تجاههم. يعزز توجه إيكيا الذي يركز على الناس بشكل صريح على مستوى التنفيذيين. كما تؤكد أولريكا بيستر، رئيسة قسم الناس والثقافة، “لقد كانت الناس في قلب إيكيا لأكثر من 80 عامًا — وهنا ستظل دائمًا.” إنه نهج منضبط يساعد المنظمة على التحديث دون فقدان الأشخاص الذين يجعلونها تعمل.
ما تفعله إيكيا يعكس مجموعة من الخيارات القيادية المدروسة حول كيفية معاملة الناس مع تغير طبيعة العمل بفضل الذكاء الاصطناعي. هذه الخيارات متجذرة في قيم وتاريخ الشركة، وتشكل مدى وسرعة السماح للتكنولوجيا بالتقدم. ستتخذ شركات أخرى قرارات مختلفة، مثل الدفع أكثر نحو الأتمتة أو الإسراع في تقليل القوى العاملة.
لا يوجد نموذج واحد للمنافسة في سوق يقوده الذكاء الاصطناعي. الثقافة القوية لا تعني تلقائيًا الحفاظ على كل وظيفة؛ بل تعني أن تكون واضحًا بشأن كيف يتوافق مساهمة الإنسان والتنفيذ الآلي مع هدف المنظمة.
القيم كمرشح للذكاء الاصطناعي
عندما تبدأ الشركات في رحلتها لتحول الذكاء الاصطناعي، يكتشف القادة أن القرارات التكنولوجية الآن تحمل وزنًا ثقافيًا وأخلاقيًا. قبل نشر أداة جديدة، يجب عليهم أن يسألوا ليس فقط عما إذا كانت تعمل، بل عما إذا كانت تتماشى مع نوع المنظمة التي يرغبون في قيادتها.
في إيكيا، توجه هذه الأسئلة بقيم الشركة الأساسية. هذه القيم، بما في ذلك التضامن، والبساطة، والاهتمام بالناس والكوكب، تُعامل كمعايير عملية لاتخاذ القرارات في كل مبادرة تتعلق بالذكاء الاصطناعي. تظهر في الأسئلة الحقيقية التي يستخدمها القادة لتقييم التكنولوجيا الجديدة:
هل يبسط هذا العمل أم يعقده؟
هل يدعم هذا الزملاء ويحرر وقتًا للعمل الأكثر معنى؟
هل يتماشى مع العدالة، والشمول، والاستدامة؟
هذا الانضباط ليس داخليًا فقط. بقيادة رئيس التحول الرقمي، باراغ بارخ، وقعت الشركة العام الماضي مع شراكة الذكاء الاصطناعي (PAI) للمساعدة في توسيع المعايير حول التكنولوجيا المسؤولة، وبحسب قول بيستر، “لضمان تطوير وتطبيق الذكاء الاصطناعي بشكل أخلاقي، بما يتماشى مع قيم الشمولية والاهتمام بالناس والكوكب.”
نفس الموقف الذي يركز على الإنسان ويضع القيم في المقدمة يوجه كيف تقيّم إنجكا شركاءها. تطبق الشركة قاعدة مجموعة الأخلاقيات الرقمية التي تتطلب أن يكون أي شريك أو أداة ذكاء اصطناعي “متين، وقابل للمراجعة، وقابل للتفسير، وعادل، وشامل، ومستدام.”
تُظهر هذه الممارسات كيف يمكن للشركات تطبيق حوكمة الذكاء الاصطناعي ليس فقط لإدارة المخاطر، بل لتوضيح ما تمثله.
تدريب القادة قبل توسيع الأدوات
مع انتقال الذكاء الاصطناعي من التجارب إلى العمل اليومي، تكتشف المزيد من المؤسسات أن جاهزية القيادة مهمة بقدر الجاهزية التقنية. إن نشر الأدوات قبل أن يعرف القادة كيفية شرحها، وإدارتها، ودعمها غالبًا ما يخلق لبسًا قبل أن يحقق قيمة.
واحدة من أهم خيارات إنجكا كانت إعداد القادة قبل نشر التكنولوجيا. خلال السنة المالية السابقة للشركة، بين 1 سبتمبر 2023 و31 أغسطس 2024، دربت الشركة حوالي 30,000 زميل و500 من كبار القادة على الذكاء الاصطناعي المسؤول، ليتمكنوا من مناقشة التكنولوجيا مع فرقهم ودعم الزملاء برعاية مع تطور طريقة العمل بواسطة الذكاء الاصطناعي.
وهنا تقع بعض الشركات في خطأ. ليس لأن الموظفين غير قادرين على التكيف مع التكنولوجيا الجديدة، بل لأن القادة يتحدثون من طرفي فمهم. يمكن للموظفين التعامل مع التغيير عندما تكون التوقعات واضحة. ما يبطئهم هو غموض القيمة: إشارات متضاربة حول ما تمثله المنظمة، وما يتغير، وما لن يتم التنازل عنه.
قد لا يكون الأمر لافتًا، لكنه أحد أكثر أدوات الاستقرار الثقافي فاعلية التي يمكن أن يستخدمها التنفيذيون أثناء إدارة التغيير السريع.
التعلم علنًا: ثقافة لا تتظاهر بامتلاك الإجابات
سلوك القادة أثناء التجربة مهم بقدر الأدوات نفسها. التظاهر بامتلاك كل الإجابات يمكن أن يقوض الثقة أسرع من أي فشل تقني.
تختبر إنجكا الذكاء الاصطناعي في مجالات عملية متنوعة: تحسين توقعات الطلب، دعم فرق المبيعات عن بعد، ومساعدة الزملاء في الكتابة والتخطيط اليومي. تتنوع الأدوات، من روبوت الدردشة BILLY الذي يستخدمه الآلاف من الزملاء إلى Hej Copilot، والمساعد الداخلي الخاص بالشركة (MyAI Porta) الذي يساعد في المسودات، والأفكار، وتحسين أعباء العمل. كما تجري الشركة تجارب مع مساعد GPT لجعل المحادثات الرقمية مع العملاء أكثر سلاسة.
ما يميز العديد من برامج الذكاء الاصطناعي الأكثر فاعلية هو شفافية القادة خلال العملية، واستعدادهم للاعتراف بأن ليس كل شيء سيعمل بشكل مثالي في البداية. تميل الفرق إلى الاستجابة بشكل أفضل عندما يعترف القادة بما لا يعرفونه بعد ويعدون بالتعلم في الوقت الحقيقي بدلاً من تقديم يقين مبكر.
هذا النوع من الشفافية يلعب دورًا قويًا في الحفاظ على مشاركة الناس. عندما يرى الناس القادة يعملون من خلال منحنى التعلم بدلاً من تقديم عملية إطلاق مصقولة، يصبح من الأسهل الثقة في التكنولوجيا وعملية التغيير المحيطة بها.
عندما يشمل استراتيجية الذكاء الاصطناعي الأثر البيئي
يصبح الاستدامة أيضًا جزءًا من حديث التكنولوجيا. يُطلب من القادة بشكل متزايد أن يأخذوا بعين الاعتبار ليس فقط ما يمكن أن يحسنه الذكاء الاصطناعي، بل أيضًا ما يكلفه من طاقة وبيانات وبصمة بيئية.
استخدمت مجموعة إنجكا الذكاء الاصطناعي لتعزيز جهودها في الاستدامة، خاصة في عمليات الطعام عبر أسواقها التجارية. باستخدام قياس مدعوم بالذكاء الاصطناعي وموازين ذكية، تمكنت إنجكا من:
تقليل هدر الطعام بنسبة مذهلة بلغت 54%
توفير أكثر من 20 مليون وجبة
كما تقيّم إنجكا تدريب النماذج بكفاءة في استهلاك الطاقة وممارسات البيانات المسؤولة، لضمان أن تطبيق الذكاء الاصطناعي لا يزيد من الأثر البيئي. وهو استمرار لنهج إيكيا القائم على القيم منذ زمن بعيد: استخدام الذكاء الاصطناعي بطرق مسؤولة ومفيدة للعديد من الناس والكوكب.
مع توسع المزيد من المؤسسات في تطبيق الذكاء الاصطناعي، تصبح خيارات كهذه جزءًا من كيفية تحديد القادة لمفهوم النمو المسؤول في الممارسة.
خمس ممارسات قيادية عالية العائد للتغيير المدفوع بالذكاء الاصطناعي
مع إعادة تشكيل الذكاء الاصطناعي لطريقة إنجاز العمل، تظهر ممارسات قيادية معينة فاعلية خاصة في مساعدة المؤسسات على التكيف دون المساس بالثقة، والأداء، والثقافة.
بناء معرفة بالذكاء الاصطناعي في القيادة العليا قبل التوسع عبر القوى العاملة. يحتاج التنفيذيون والمديرون إلى فهم عملي مشترك لكيفية عمل الذكاء الاصطناعي، وما الذي سيغيره، وما الذي لن يغيره. عندما يتلقى القادة التدريب أولاً، يمكنهم شرح ما يحدث بمصداقية، ومعالجة المخاوف دون إثارة القلق، وربط القرارات بمبادئ ثابتة. تساعد نقاط الحديث، والنصوص، والأسئلة الشائعة القادة على توجيه الفرق بثقة خلال حالة عدم اليقين، مع دعم الموظفين لتطوير مهاراتهم والنمو.
إعادة تصميم العمل بدراسة “المهام داخل الوظيفة”، وليس مسميات الوظائف. يسمح تقسيم الأدوار إلى مهام صغيرة للمؤسسات برؤية أماكن يمكن فيها للأتمتة إزالة الاحتكاك، وأين يمكن للذكاء الاصطناعي أن يعزز الحكم البشري، وأين يظل المساهمة البشرية ضرورية. يجعل هذا التغيير ملموسًا وشخصيًا بدلاً من أن يكون مجرد مفهوم مجرد، ويساعد الموظفين على فهم كيف سيتحسن عملهم اليومي بدلاً من أن يختفي.
جعل الذكاء الاصطناعي المسؤول ممارسة حوكمة حقيقية. يجب أن يلتزم كل أداة أو مزود ذكاء اصطناعي بمعايير واضحة قبل أن تدخل إلى المنظمة. يجب أن تتجاوز هذه المعايير الامتثال لتشمل الاعتمادية، وقابلية التفسير، والعدالة، والشمول، والاستدامة. تساعد معايير القبول البسيطة وقوائم التحقق على ضمان قرارات متسقة وتجنب أن تصبح الحوكمة مجرد تمرين بعد وقوع الحدث.
استخدام المحادثات اليومية كأداة رئيسية لإدارة التغيير. تتيح اللقاءات القصيرة والمنتظمة بين المديرين والموظفين الكشف المبكر عن الالتباس، وبناء الثقة، وتوفير مساحة آمنة لمناقشة كيف تتطور الأدوار. غالبًا ما تكون هذه الحلقات الصغيرة من التغذية الراجعة أكثر فاعلية من الاتصالات من أعلى إلى أسفل خلال فترات التغيير السريع.
اعتبار التجارب التجريبية لحلول الذكاء الاصطناعي كفرص تعلم مشتركة. المؤسسات التي تعترف بأن التجارب لن تكون مثالية وتشارك بصراحة ما تتعلمه تقلل من الخوف وتزيد من المشاركة. عندما يُظهر القادة التعلم علنًا، تصبح الفرق أكثر استعدادًا للتجربة، والتكيف، والتحسين جنبًا إلى جنب مع التكنولوجيا.
ملاحظة ختامية لفرق القيادة
واحدة من أنماط واضحة تظهر عبر الشركات التي تتبنى الذكاء الاصطناعي هي مدى استقرار الجانب البشري في المنظمة عندما يظل القادة قريبين من شعبهم. في إنجكا، جاء هذا الاستقرار من خلال ظهور القادة، والاستماع للمخاوف، والبقاء على اتصال بالواقع اليومي للعمل.
العديد من المؤسسات تتقدم بسرعة نحو الأتمتة، غالبًا مع التركيز على الكفاءة والسرعة فوق كل شيء. أي نماذج التحول ستثبت مدى قوتها مع مرور الوقت لا تزال غير واضحة. تجربة إيكيا توضح مسارًا مقصودًا واحدًا: مواءمة اعتماد الذكاء الاصطناعي مع عقد اجتماعي واضح، بحيث يتم استيعاب التغيير بأقل قدر من الصدمات الداخلية.
بالنسبة لفرق القيادة التي تتنقل في موجة التغيير التكنولوجي هذه، الدرس هو عدم نسخ خيارات إيكيا، بل أن يكونوا واضحين تمامًا بشأن خياراتهم الخاصة: أن يوضحوا قيمهم بوضوح، وأن يتخذوا قراراتهم بشكل واعٍ، وأن يقودوا بثبات أثناء إعادة تصميم العمل. تقدم إيكيا مثالًا مفيدًا على كيف يمكن أن يبدو هذا النوع من الوضوح في الممارسة.
الآراء المعبر عنها في مقالات Fortune.com تعبر فقط عن آراء مؤلفيها ولا تعكس بالضرورة آراء ومعتقدات Fortune.
انضم إلينا في قمة الابتكار في مكان العمل من Fortune في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في مكان العمل — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتلاقى الذكاء الاصطناعي، والإنسانية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
كيف يحمي القادة الثقافة بينما يعيد الذكاء الاصطناعي كتابة طريقة إنجاز العمل
عبر المؤسسات الكبرى، تتسارع وتيرة انتقال الذكاء الاصطناعي من مرحلة التجربة إلى العمل اليومي. هذا التحول يجبر القادة على مواجهة قضايا لا يمكن تفويضها للتكنولوجيا: كيف يتم قياس الأداء، كيف يتم دعم الأشخاص خلال التغيير، وكيف تظهر القيم عندما تبدأ الآلات في أداء المزيد من الأعمال. ليست كل شركة تتعامل مع هذه الأسئلة بنفس الطريقة.
فيديو موصى به
بعض المؤسسات ترد على ذلك بالسعي لتحقيق الكفاءة بسرعة. آخرون يتراجعون لإعادة تعريف، أو تأكيد، نوع الشركة التي يرغبون في أن يكونوا عليها مع تزايد دمج الذكاء الاصطناعي في المنظمة؛ وما الالتزامات التي لا زالوا مدينين بها للأشخاص الذين يديرون الأعمال.
وفي الممارسة العملية، يعني ذلك أن كبار التنفيذيين يصارعون مع العقد الاجتماعي بين الشركة وموظفيها. مع تولي الذكاء الاصطناعي مزيدًا من التنفيذ، يجب على القادة أن يقرروا ما يبقى إنسانياً، وما يتحول إلى آلي، وكم من الاضطراب يمكن لثقافتهم استيعابه على طول الطريق. هذه قرارات قيادية تتعلق بالثقة، والمساءلة، ونوع المنظمة التي يُطلب من الناس الالتزام بها.
في مجموعة إنجكا، أكبر بائع تجزئة لإيكيا في 32 دولة، أدرك القادة هذا التوتر مبكرًا وشرعوا في اعتماد الذكاء الاصطناعي بطريقة لا تهدد ثقافتهم. كانت التكنولوجيا ستتقدم، ولكن ليس بدون قيادة ثابتة ودعم واضح لشعبهم. تبرز طريقة إيكيا كمثال على كيفية اختيار مؤسسة كبيرة أن تترك القيم، وليس فقط الإنتاجية، تشكل كيفية دخول الذكاء الاصطناعي إلى العمل اليومي.
في إيكيا، يظهر الالتزام بالموظفين في كيفية حديث القادة الكبار عن شعبهم ومسؤولياتهم تجاههم. يعزز توجه إيكيا الذي يركز على الناس بشكل صريح على مستوى التنفيذيين. كما تؤكد أولريكا بيستر، رئيسة قسم الناس والثقافة، “لقد كانت الناس في قلب إيكيا لأكثر من 80 عامًا — وهنا ستظل دائمًا.” إنه نهج منضبط يساعد المنظمة على التحديث دون فقدان الأشخاص الذين يجعلونها تعمل.
ما تفعله إيكيا يعكس مجموعة من الخيارات القيادية المدروسة حول كيفية معاملة الناس مع تغير طبيعة العمل بفضل الذكاء الاصطناعي. هذه الخيارات متجذرة في قيم وتاريخ الشركة، وتشكل مدى وسرعة السماح للتكنولوجيا بالتقدم. ستتخذ شركات أخرى قرارات مختلفة، مثل الدفع أكثر نحو الأتمتة أو الإسراع في تقليل القوى العاملة.
لا يوجد نموذج واحد للمنافسة في سوق يقوده الذكاء الاصطناعي. الثقافة القوية لا تعني تلقائيًا الحفاظ على كل وظيفة؛ بل تعني أن تكون واضحًا بشأن كيف يتوافق مساهمة الإنسان والتنفيذ الآلي مع هدف المنظمة.
القيم كمرشح للذكاء الاصطناعي
عندما تبدأ الشركات في رحلتها لتحول الذكاء الاصطناعي، يكتشف القادة أن القرارات التكنولوجية الآن تحمل وزنًا ثقافيًا وأخلاقيًا. قبل نشر أداة جديدة، يجب عليهم أن يسألوا ليس فقط عما إذا كانت تعمل، بل عما إذا كانت تتماشى مع نوع المنظمة التي يرغبون في قيادتها.
في إيكيا، توجه هذه الأسئلة بقيم الشركة الأساسية. هذه القيم، بما في ذلك التضامن، والبساطة، والاهتمام بالناس والكوكب، تُعامل كمعايير عملية لاتخاذ القرارات في كل مبادرة تتعلق بالذكاء الاصطناعي. تظهر في الأسئلة الحقيقية التي يستخدمها القادة لتقييم التكنولوجيا الجديدة:
هل يبسط هذا العمل أم يعقده؟
هل يدعم هذا الزملاء ويحرر وقتًا للعمل الأكثر معنى؟
هل يتماشى مع العدالة، والشمول، والاستدامة؟
هذا الانضباط ليس داخليًا فقط. بقيادة رئيس التحول الرقمي، باراغ بارخ، وقعت الشركة العام الماضي مع شراكة الذكاء الاصطناعي (PAI) للمساعدة في توسيع المعايير حول التكنولوجيا المسؤولة، وبحسب قول بيستر، “لضمان تطوير وتطبيق الذكاء الاصطناعي بشكل أخلاقي، بما يتماشى مع قيم الشمولية والاهتمام بالناس والكوكب.”
نفس الموقف الذي يركز على الإنسان ويضع القيم في المقدمة يوجه كيف تقيّم إنجكا شركاءها. تطبق الشركة قاعدة مجموعة الأخلاقيات الرقمية التي تتطلب أن يكون أي شريك أو أداة ذكاء اصطناعي “متين، وقابل للمراجعة، وقابل للتفسير، وعادل، وشامل، ومستدام.”
تُظهر هذه الممارسات كيف يمكن للشركات تطبيق حوكمة الذكاء الاصطناعي ليس فقط لإدارة المخاطر، بل لتوضيح ما تمثله.
تدريب القادة قبل توسيع الأدوات
مع انتقال الذكاء الاصطناعي من التجارب إلى العمل اليومي، تكتشف المزيد من المؤسسات أن جاهزية القيادة مهمة بقدر الجاهزية التقنية. إن نشر الأدوات قبل أن يعرف القادة كيفية شرحها، وإدارتها، ودعمها غالبًا ما يخلق لبسًا قبل أن يحقق قيمة.
واحدة من أهم خيارات إنجكا كانت إعداد القادة قبل نشر التكنولوجيا. خلال السنة المالية السابقة للشركة، بين 1 سبتمبر 2023 و31 أغسطس 2024، دربت الشركة حوالي 30,000 زميل و500 من كبار القادة على الذكاء الاصطناعي المسؤول، ليتمكنوا من مناقشة التكنولوجيا مع فرقهم ودعم الزملاء برعاية مع تطور طريقة العمل بواسطة الذكاء الاصطناعي.
وهنا تقع بعض الشركات في خطأ. ليس لأن الموظفين غير قادرين على التكيف مع التكنولوجيا الجديدة، بل لأن القادة يتحدثون من طرفي فمهم. يمكن للموظفين التعامل مع التغيير عندما تكون التوقعات واضحة. ما يبطئهم هو غموض القيمة: إشارات متضاربة حول ما تمثله المنظمة، وما يتغير، وما لن يتم التنازل عنه.
قد لا يكون الأمر لافتًا، لكنه أحد أكثر أدوات الاستقرار الثقافي فاعلية التي يمكن أن يستخدمها التنفيذيون أثناء إدارة التغيير السريع.
التعلم علنًا: ثقافة لا تتظاهر بامتلاك الإجابات
سلوك القادة أثناء التجربة مهم بقدر الأدوات نفسها. التظاهر بامتلاك كل الإجابات يمكن أن يقوض الثقة أسرع من أي فشل تقني.
تختبر إنجكا الذكاء الاصطناعي في مجالات عملية متنوعة: تحسين توقعات الطلب، دعم فرق المبيعات عن بعد، ومساعدة الزملاء في الكتابة والتخطيط اليومي. تتنوع الأدوات، من روبوت الدردشة BILLY الذي يستخدمه الآلاف من الزملاء إلى Hej Copilot، والمساعد الداخلي الخاص بالشركة (MyAI Porta) الذي يساعد في المسودات، والأفكار، وتحسين أعباء العمل. كما تجري الشركة تجارب مع مساعد GPT لجعل المحادثات الرقمية مع العملاء أكثر سلاسة.
ما يميز العديد من برامج الذكاء الاصطناعي الأكثر فاعلية هو شفافية القادة خلال العملية، واستعدادهم للاعتراف بأن ليس كل شيء سيعمل بشكل مثالي في البداية. تميل الفرق إلى الاستجابة بشكل أفضل عندما يعترف القادة بما لا يعرفونه بعد ويعدون بالتعلم في الوقت الحقيقي بدلاً من تقديم يقين مبكر.
هذا النوع من الشفافية يلعب دورًا قويًا في الحفاظ على مشاركة الناس. عندما يرى الناس القادة يعملون من خلال منحنى التعلم بدلاً من تقديم عملية إطلاق مصقولة، يصبح من الأسهل الثقة في التكنولوجيا وعملية التغيير المحيطة بها.
عندما يشمل استراتيجية الذكاء الاصطناعي الأثر البيئي
يصبح الاستدامة أيضًا جزءًا من حديث التكنولوجيا. يُطلب من القادة بشكل متزايد أن يأخذوا بعين الاعتبار ليس فقط ما يمكن أن يحسنه الذكاء الاصطناعي، بل أيضًا ما يكلفه من طاقة وبيانات وبصمة بيئية.
استخدمت مجموعة إنجكا الذكاء الاصطناعي لتعزيز جهودها في الاستدامة، خاصة في عمليات الطعام عبر أسواقها التجارية. باستخدام قياس مدعوم بالذكاء الاصطناعي وموازين ذكية، تمكنت إنجكا من:
تقليل هدر الطعام بنسبة مذهلة بلغت 54%
توفير أكثر من 20 مليون وجبة
كما تقيّم إنجكا تدريب النماذج بكفاءة في استهلاك الطاقة وممارسات البيانات المسؤولة، لضمان أن تطبيق الذكاء الاصطناعي لا يزيد من الأثر البيئي. وهو استمرار لنهج إيكيا القائم على القيم منذ زمن بعيد: استخدام الذكاء الاصطناعي بطرق مسؤولة ومفيدة للعديد من الناس والكوكب.
مع توسع المزيد من المؤسسات في تطبيق الذكاء الاصطناعي، تصبح خيارات كهذه جزءًا من كيفية تحديد القادة لمفهوم النمو المسؤول في الممارسة.
خمس ممارسات قيادية عالية العائد للتغيير المدفوع بالذكاء الاصطناعي
مع إعادة تشكيل الذكاء الاصطناعي لطريقة إنجاز العمل، تظهر ممارسات قيادية معينة فاعلية خاصة في مساعدة المؤسسات على التكيف دون المساس بالثقة، والأداء، والثقافة.
بناء معرفة بالذكاء الاصطناعي في القيادة العليا قبل التوسع عبر القوى العاملة. يحتاج التنفيذيون والمديرون إلى فهم عملي مشترك لكيفية عمل الذكاء الاصطناعي، وما الذي سيغيره، وما الذي لن يغيره. عندما يتلقى القادة التدريب أولاً، يمكنهم شرح ما يحدث بمصداقية، ومعالجة المخاوف دون إثارة القلق، وربط القرارات بمبادئ ثابتة. تساعد نقاط الحديث، والنصوص، والأسئلة الشائعة القادة على توجيه الفرق بثقة خلال حالة عدم اليقين، مع دعم الموظفين لتطوير مهاراتهم والنمو.
إعادة تصميم العمل بدراسة “المهام داخل الوظيفة”، وليس مسميات الوظائف. يسمح تقسيم الأدوار إلى مهام صغيرة للمؤسسات برؤية أماكن يمكن فيها للأتمتة إزالة الاحتكاك، وأين يمكن للذكاء الاصطناعي أن يعزز الحكم البشري، وأين يظل المساهمة البشرية ضرورية. يجعل هذا التغيير ملموسًا وشخصيًا بدلاً من أن يكون مجرد مفهوم مجرد، ويساعد الموظفين على فهم كيف سيتحسن عملهم اليومي بدلاً من أن يختفي.
جعل الذكاء الاصطناعي المسؤول ممارسة حوكمة حقيقية. يجب أن يلتزم كل أداة أو مزود ذكاء اصطناعي بمعايير واضحة قبل أن تدخل إلى المنظمة. يجب أن تتجاوز هذه المعايير الامتثال لتشمل الاعتمادية، وقابلية التفسير، والعدالة، والشمول، والاستدامة. تساعد معايير القبول البسيطة وقوائم التحقق على ضمان قرارات متسقة وتجنب أن تصبح الحوكمة مجرد تمرين بعد وقوع الحدث.
استخدام المحادثات اليومية كأداة رئيسية لإدارة التغيير. تتيح اللقاءات القصيرة والمنتظمة بين المديرين والموظفين الكشف المبكر عن الالتباس، وبناء الثقة، وتوفير مساحة آمنة لمناقشة كيف تتطور الأدوار. غالبًا ما تكون هذه الحلقات الصغيرة من التغذية الراجعة أكثر فاعلية من الاتصالات من أعلى إلى أسفل خلال فترات التغيير السريع.
اعتبار التجارب التجريبية لحلول الذكاء الاصطناعي كفرص تعلم مشتركة. المؤسسات التي تعترف بأن التجارب لن تكون مثالية وتشارك بصراحة ما تتعلمه تقلل من الخوف وتزيد من المشاركة. عندما يُظهر القادة التعلم علنًا، تصبح الفرق أكثر استعدادًا للتجربة، والتكيف، والتحسين جنبًا إلى جنب مع التكنولوجيا.
ملاحظة ختامية لفرق القيادة
واحدة من أنماط واضحة تظهر عبر الشركات التي تتبنى الذكاء الاصطناعي هي مدى استقرار الجانب البشري في المنظمة عندما يظل القادة قريبين من شعبهم. في إنجكا، جاء هذا الاستقرار من خلال ظهور القادة، والاستماع للمخاوف، والبقاء على اتصال بالواقع اليومي للعمل.
العديد من المؤسسات تتقدم بسرعة نحو الأتمتة، غالبًا مع التركيز على الكفاءة والسرعة فوق كل شيء. أي نماذج التحول ستثبت مدى قوتها مع مرور الوقت لا تزال غير واضحة. تجربة إيكيا توضح مسارًا مقصودًا واحدًا: مواءمة اعتماد الذكاء الاصطناعي مع عقد اجتماعي واضح، بحيث يتم استيعاب التغيير بأقل قدر من الصدمات الداخلية.
بالنسبة لفرق القيادة التي تتنقل في موجة التغيير التكنولوجي هذه، الدرس هو عدم نسخ خيارات إيكيا، بل أن يكونوا واضحين تمامًا بشأن خياراتهم الخاصة: أن يوضحوا قيمهم بوضوح، وأن يتخذوا قراراتهم بشكل واعٍ، وأن يقودوا بثبات أثناء إعادة تصميم العمل. تقدم إيكيا مثالًا مفيدًا على كيف يمكن أن يبدو هذا النوع من الوضوح في الممارسة.
الآراء المعبر عنها في مقالات Fortune.com تعبر فقط عن آراء مؤلفيها ولا تعكس بالضرورة آراء ومعتقدات Fortune.
انضم إلينا في قمة الابتكار في مكان العمل من Fortune في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في مكان العمل — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتلاقى الذكاء الاصطناعي، والإنسانية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.