الطرق التي قد يعرقل CIO استراتيجية منظمة العفو الدولية عن غير قصد

لاحظ أوسكار وايلد: “دائمًا مع أفضل النوايا التي يتم فيها أسوأ عمل”. نظرًا لأن أي مديري إدارة المعلومات الذي شاهد استراتيجية منظمة العفو الدولية المخطط لها بعناية تنهار فجأة ستشهد ، فإن النوايا الحسنة ليست ضمانًا للنجاح.
لا يريد أي مديري إدارة المعلومات الإلحاق أو تأخير مبادرة منظمة العفو الدولية المهمة ، ومع ذلك يحدث ذلك في كثير من الأحيان أكثر من كثير من القادة الذين يهتمون بالاعتراف. لذلك ، أصبح الحصول على سيطرة قوية على خطط الذكاء الاصطناعي الآن أولوية مفتاح CIO.
تجنب الخطر
يقول Danilo Kirschner ، المدير الإداري لشركة Zoi North America ، وهي شركة تقنيات السحابة وتطوير البرمجيات ، إن مجرد القيام بمنظمة العفو الدولية من أجل الذكاء الاصطناعى يمكن أن يحرق الكثير من المال دون تحقيق أي نتيجة ملموسة. “هذا هو السبب في أن النتائج التجارية المطلوبة وقيمة مساهمة تنفيذ الذكاء الاصطناعى يجب تقييمها قبل إنشاء استراتيجية الذكاء الاصطناعي” ، يلاحظ في مقابلة عبر الإنترنت.
يمكن أن يخرج مدير المعلومات عن غير قصد من ابتكار الذكاء الاصطناعي عن طريق السماح لأصحاب المصلحة الذين ينفقون بالمخاطر-غالبًا ما يكون فرق CISO أو الأمن-بفرض ضوابط مفرطة بشكل مفرط على أن تجربتهما ، كما تقول لورا ستاش ، نائبة الرئيس التنفيذي للهندسة المعمارية للوحدات في شركة Itech AG ، في مقابلة عبر البريد الإلكتروني. “بالإضافة إلى ذلك ، فإن الاعتماد فقط على الوظائف الإضافية AI على الجرف ، مثل Microsoft CoPilot ، دون دمجها بعناية في سير العمل الأساسي يمكن أن يحد من التأثير.”
تتمثل إحدى أسهل الطرق التي يمكن أن تعرقل بها CIO عن استراتيجية الذكاء الاصطناعى عن طريق فرض انتقال عندما تكون المشكلات في الواقع مع الأشخاص أو العمليات – وليس التكنولوجيا ، يلاحظ Allen Brokken ، وهي تقدم الممارسة للبنية التحتية لمنظمة العفو الدولية في Google Americas. يقول: “في الوقت الحالي ، مع انفجار النماذج والقدرات ، من السهل جدًا الانخراط في الإعلان أو القدرة الكبرى التالية وفقد التركيز على أساسيات شعبك وعمليتك”. “هذا صحيح بشكل خاص عندما تقدم التقنيات الحالية في مؤسستك بالفعل تقدمًا واعدة.”
بدائل مقبولة
يقول Tom Gersic ، نائب الرئيس الأول لـ AI و Digital Business في شركة Data and Engineering Services ، إن الذكاء الاصطناعي ليس مبادرة مستقلة. يقول في مقابلة عبر الإنترنت: “إن جعل منظمة العفو الدولية جزءًا من جهود التحول التجاري الأوسع وقياس المخرجات مقابل النتائج أمر بالغ الأهمية”.
يقول بروكين: “إن مفتاح الحفاظ على استراتيجية الذكاء الاصطناعى على المسار الصحيح هو جعل أعضاء الفريق تحليل أحدث التطورات ، ومع ذلك يكون لدى الانضباط أن يتصرف فقط عندما ستدفع الاستراتيجية إلى الأمام حقًا”.
تأكد من أن حلول الذكاء الاصطناعى المنشور في الواقع توفر الوقت أو إضافة قيمة أعمال واضحة ؛ الأدوات الاختيارية التي تدفق سير العمل البطيء للفشل ، والولايات المخبأة. “يجب أن تشجع CIOS التعاون ، وتوفير تدريبات AI المستمرة لمستخدمي الأعمال … والاستثمار في فرق تكنولوجيا المعلومات في مجال الهندسة الفوري ، واكتشاف التحيز ، واختبار أفضل الممارسات.”
الحصول على المسار الصحيح
يطلب من جميع أصحاب المصلحة الرئيسيين إعادة النظر في الأهداف الاستراتيجية للمشروع ، يوصي Gersic. “مراجعة جودة البيانات والوصول إليها [and] تحديد انتصارات سريعة لاستعادة الثقة. “يعتقد أنه من المهم أيضًا عرض النجاحات المبكرة.
في حين أن استراتيجية الذكاء الاصطناعى تؤثر على العديد من أصحاب المصلحة ، فإن تصحيح الدورة الفعالة لا يتطلب سوى واحد أو اثنين من قادة المسؤولين الذين يتم تمكينهم لدفع القرارات والتصرف بسرعة ، كما يقول Stash. “الكثير من التعاون دون ملكية واضحة يؤدي غالبًا إلى” تحليل الشلل “والتقدم المتوقف”.
يقول ستاش: “يجب أن يمتلك القادة المسؤولون عن الاستراتيجية – عادةً CIO أو كبير موظفي الذكاء الاصطناعي أو قيادة استراتيجية AI المعينة – السلطة والتفويض لمحاذاة الأعمال التجارية وتكنولوجيا المعلومات والفرق الأمنية”. يجب أن يكون هؤلاء الأفراد على استعداد لإجراء مكالمات صعبة وفرض خطة واضحة لإصلاح أو استبدال الاستراتيجية الحالية. “أيضا إشراك أصحاب المصلحة الحاسبين كمستشارين ، ولكنهم يحتفظون بالمسؤولية النهائية لضمان الزخم والنتائج”.
لا تخف من الفشل ، كما يقول Stash. يمكن أن يكون الفشل الكارثي قاتلًا مهنيًا ، ولكن لا ينبغي أن يكون فشل في استخدام الذكاء الاصطناعي. وتشير إلى أن المفتاح هو الفشل بسرعة وأمام. “حدد المشكلات الحقيقية-سواء كانت بيانات أو أشخاص أو أمن-ومعالجتها وجهاً لوجه.” سيؤدي تقنية المعلومات الذين يعالجون بالتحديات والمحور بشكل علني لاستخدام الحالات التي تعمل على بناء المصداقية والمرونة. “القادة الذين يخشون الفشل في الركود.”
إسقاط العصا
الذكاء الاصطناعى ليس سحريًا – إنه فوضوي ، تكراري ، ويطالب القيادة الشجاعة على استعداد للفشل بسرعة وإصلاح أسرع ، يلاحظ Stash. “إذا لم تجعل استراتيجية الذكاء الاصطناعك الوظائف أسهل أو تقدم قيمة قابلة للقياس بسرعة ، فهي مجرد خلع الملابس باهظة الثمن.”
يقول Stash إن مديري المعلومات الذين يفوزون بالتبني وسهولة الاستخدام وتأثير المهمة – وليس فقط المواصفات التقنية أو الكلمات الطنانة. إنهم يستثمرون بجرأة في الأشخاص والبيانات والتغيير الحقيقي. “الآخرين ،” تلاحظ ، “ترك في الغبار.”




