كيفية إنشاء استراتيجية منظمة العفو الدولية الفائزة

لا تزال الذكاء الاصطناعي أكثر انتشارًا حيث تتبنىها المنظمات لاكتساب ميزة تنافسية وتقليل التكاليف وتقديم تجارب أفضل للعملاء. جميع المنظمات لديها استراتيجية منظمة العفو الدولية ، سواء عن طريق التصميم أو الافتراضي. الأول يساعد في ضمان تحقيق الشركة قيمة أكبر ، وذلك ببساطة لأن قادةها يضعون المزيد من التفكير في الأمر ويعملون بشكل عام لتحقيق ذلك ، من الناحية الاستراتيجية والتكتيكية.
“إنه يعود إلى حد كبير إلى العمل ، فما هي أهداف العمل؟ وبعد ذلك ، كيف يمكن أن تساعدني منظمة العفو الدولية على تحقيق هذه الأهداف؟ ” يقول أناند راو ، أستاذ الخدمة المتميز ، علوم البيانات التطبيقية والذكاء الاصطناعي في جامعة كارنيجي ميلون. “من هناك ، [it] ينقسم إلى حد كبير إلى شيئين: AI أتمتة المهام بحيث يمكنك أن تكون أكثر كفاءة ، ويساعدك على اتخاذ قرارات أفضل ، ويأتي ذلك تجربة أفضل للعميل ، أو المزيد من الإيرادات ، أو جودة أكثر اتساقًا. ”
عناصر استراتيجية الذكاء الاصطناعى الفائز
كيفن سوراس ، الرئيس التنفيذي في منصة الاختبار الذاتي appvanceيقول العناصر الثلاثة لاستراتيجية الذكاء الاصطناعى الفعالة هي الوضوح والمواءمة وخفة الحركة.
يقول سورس: “تبدأ استراتيجية AI الفائزة برؤية واضحة عن المشكلات التي تحلها ولماذا”. “إنه يتوافق مع مبادرات الذكاء الاصطناعي مع أهداف العمل ، مما يضمن أن كل مشروع يوفر قيمة قابلة للقياس. ويبني في خفة الحركة ، مما يسمح للمنظمة بالتكيف مع تطور التكنولوجيا وظروف السوق. ”
ويل رولاندز-ريس ، كبير موظفي الذكاء الاصطناعي ، في خدمات التعليم الإلكتروني ، وخدمات الذكاء الاصطناعي ، ومزود حلول الترجمة والتوطين ليونبريدج يوافق.
يقول Rowlands-Rees: “من الأهمية بمكان محاذاة استراتيجية الذكاء الاصطناعي والاستثمارات مع استراتيجية عملك الإجمالية-لا يمكن الطلاق من بعضها البعض”. “عند تطبيقها بشكل صحيح ، تعد الذكاء الاصطناعى أداة قوية يمكنها تسريع قدرة مؤسستك على حل مشاكل العملاء وتبسيط العمليات وبالتالي زيادة نمو الإيرادات. سيؤدي هذا النهج الهجومي بشكل عضوي إلى تحسين التكلفة مع ظهور الكفاءة من العمليات المبسطة والنتائج المحسنة. ”
براد أوبراين ، شريك في Global Consultancy ممارسة الخدمات المالية الأمريكية في بارينغا، المدافعون عن وجود إطار حوكمة واضح بما في ذلك تعريف الأدوار والمسؤوليات ، ووضع المبادئ التوجيهية ، وضمان المساءلة على جميع المستويات.
يقول أوبراين: “إن ممارسات إدارة المخاطر الشاملة ضرورية لتحديد وتقييم وتخفيف المخاطر المتعلقة بـ AI ، بما في ذلك عمليات التدقيق المنتظمة وتقييمات التحيز وإدارة البيانات القوية”. “البقاء على اطلاع ، والتوافق مع لوائح الذكاء الاصطناعي ، مثل قانون AI للاتحاد الأوروبي واللوائح الأمريكية الناشئة ، أمر حيوي. الحفاظ على الشفافية والتوثيق الشامل لدورة حياة الذكاء الاصطناعى بأكمله يبني الثقة مع أصحاب المصلحة. إن إشراك أصحاب المصلحة الرئيسيين ، بما في ذلك أعضاء مجلس الإدارة والموظفين والشركاء الخارجيين ، يضمن المحاذاة والدعم لمبادرات الذكاء الاصطناعي. يعد التحسين المستمر ، استنادًا إلى التعليقات والبيانات الجديدة والتقدم التكنولوجي ، عنصرًا مهمًا أيضًا. ”
آشوين راجيفا ، المؤسس المشارك و CTO في شركة قابلية مراقبة بيانات المؤسسة acceldata، يعتقد أن استراتيجية AI الناجحة تمزج رؤية عمل واضحة مع التميز الفني.
“يبدأ بأساس بيانات قوي ؛ البيانات الموثوقة وعالية الجودة غير قابلة للتفاوض. يقول Rajeeva: “إن قابلية التوسع والقدرة على التكيف أمر بالغ الأهمية مع تطور تقنيات الذكاء الاصطناعي بسرعة”. “يجب تضمين الاعتبارات الأخلاقية مبكرًا ، مما يضمن الشفافية والإنصاف في نتائج الذكاء الاصطناعي. الأهم من ذلك ، يجب أن يخلق قيمة أعمال ملموسة مع الحفاظ على المرونة للتكيف مع الابتكارات المستقبلية. ”
كيفية تجنب الأخطاء الشائعة
أحد الأخطاء هو افتراض أن الذكاء الاصطناعى التوليدي يحل محل أشكال أخرى من الذكاء الاصطناعي. هذا غير صحيح لأن الأنواع التقليدية من الذكاء الاصطناعي – مثل رؤية الكمبيوتر والتنبؤات والتوصيات – تستخدم أنواعًا مختلفة من النماذج.
“لا تزال بحاجة إلى إلقاء نظرة على حالات الاستخدام والطرق القياسية. انظر عبر المؤسسة ، انظر إلى عناصر سلسلة القيمة ، ثم انظر إلى المكان الذي تعمل فيه الذكاء الاصطناعى التقليدي ومكان عمل الذكاء الاصطناعي التوليدي ، وما الذي ستعمل عليه بعض الأشياء الأكثر من الأشياء “. “ثم ، ابدأ بشكل أساسي في جمع جميع حالات الاستخدام معًا ولديها طريقة لتحديد الأولويات.”
إن معدل التسارع الذي تتقدم فيه تقنية الذكاء الاصطناعى هو تأثير أيضًا لأن الشركات لا يمكنها مواكبة ذلك ، لذلك تتساءل المؤسسات عما إذا كان ينبغي عليهم شراء أو بناء أو الانتظار.
“التغيير فيما يتعلق بـ AI ، وخاصة Gen AI ، يتحرك بسرعة كبيرة. يقول راو: “إنه يتحرك بشكل أسرع بكثير بحيث يمكن لشركات التكنولوجيا مواكبة”.
الذكاء الاصطناعى ليس أيضًا حلاً لجميع المشكلات. مثل أي تقنية أخرى ، إنها ببساطة أداة يجب فهمها وإدارتها.
“سيتطلب اعتماد استراتيجية الذكاء الاصطناعى التكرار والتجريب ، ولا محالة الفشل في النهاية في حلول حقيقية تحرك الإبرة. هذه عملية تتطلب الكثير من الصبر. “[E]تحتاج إلى أن تفهم وشراء منظمة العفو الدولية في المؤسسة إلى حقيقة أن الذكاء الاصطناعى ليس مجرد بدعة عابرة – إنه النهج الحديث لإدارة الأعمال التجارية. الشركات التي لا تتبنى الذكاء الاصطناعي في بعض القدرات لن تكون موجودة في المستقبل لإثبات خطأ الجميع. ”
تواجه المنظمات عدة تحديات عند تنفيذ استراتيجيات الذكاء الاصطناعي. على سبيل المثال ، فإن عدم اليقين التنظيمي هو عقبة كبيرة وتنقل المشهد المعقد والمتطور لأنظمة الذكاء الاصطناعى عبر ولايات قضائية مختلفة يمكن أن تكون شاقة.
“إن ضمان خصوصية البيانات والأمان يمثلان تحديًا رئيسيًا آخر ، حيث يجب على المؤسسات حماية البيانات الحساسة التي تستخدمها أنظمة الذكاء الاصطناعى والامتثال لقوانين الخصوصية. يقول أوبراين من بارينغا: “إن التخفيف من التحيزات في نماذج الذكاء الاصطناعي لمنع العلاج غير العادل وضمان الامتثال لقوانين مكافحة التمييز أمر بالغ الأهمية”. “بالإضافة إلى ذلك ، فإن طبيعة” الصندوق الأسود “لأنظمة الذكاء الاصطناعى تشكل تحديات في تقديم تفسيرات واضحة لقرارات الذكاء الاصطناعى لأصحاب المصلحة والمنظمين. يعد تخصيص الموارد الكافية ، بما في ذلك الموظفين الماهرين والاستثمار المالي ، ضروريًا لدعم مبادرات الذكاء الاصطناعي. ”
في رأيه ، تشمل الأخطاء الشائعة في تنفيذ استراتيجية الذكاء الاصطناعي:
-
عدم وجود أطر حوكمة واضحة وهياكل المساءلة.
-
ممارسات إدارة المخاطر غير كافية ، مثل التغلب على تقييمات المخاطر الشاملة وتخفيف التحيز.
-
سوء إدارة البيانات ، بما في ذلك إهمال خصوصية البيانات والأمن التي يمكن أن تؤدي إلى انتهاكات محتملة وعدم الامتثال التنظيمي.
-
عدم كفاية الشفافية في توثيق وشرح عمليات الذكاء الاصطناعي يؤدي إلى نقص الثقة بين أصحاب المصلحة.
-
يمكن التقليل من احتياجات الموارد ، مثل عدم تخصيص عدد كافٍ من الموظفين الماهرين والاستثمار المالي ، إلى إعاقة مبادرات الذكاء الاصطناعي.
-
يمثل مواجهة المقاومة من الموظفين وأصحاب المصلحة الذين يترددون في احتضان تقنيات الذكاء الاصطناعي تحديًا شائعًا.
“[P]إعادة تصنيع الحوكمة من خلال إنشاء أطر واضحة وضمان المساءلة على جميع المستويات. ابق على اطلاع بتطوير لوائح الذكاء الاصطناعى وضمان الامتثال لجميع المعايير ذات الصلة. “التركيز على الشفافية من خلال الحفاظ على وثائق شاملة لعمليات وقرارات الذكاء الاصطناعى لبناء الثقة مع أصحاب المصلحة. استثمر في التدريب المنتظم للموظفين على سياسات الذكاء الاصطناعي وإدارة المخاطر والاعتبارات الأخلاقية. إشراك أصحاب المصلحة الرئيسيين في تصميم وتنفيذ مبادرات الذكاء الاصطناعي لضمان المحاذاة والدعم. أخيرًا ، احتضن تحسينًا مستمرًا من خلال تحديث نماذج واستراتيجيات الذكاء الاصطناعي بانتظام بناءً على التعليقات والبيانات الجديدة والتقدم التكنولوجي. ”
واحدة من أكبر الأخطاء Shobhit Varshney ، نائب الرئيس والشريك الرئيسي ، Americas AI Leader ، استشارات IBM لاحظت المنظمات التي تختار حالات استخدام الذكاء الاصطناعى بناءً على سرعة التنفيذ بدلاً من تأثير العمل المفصل بشكل صحيح.
“تتبنى العديد من المنظمات منظمة العفو الدولية لأنها تريد أن تظل قادرة على المنافسة ، لكنها تفشل في إدراك أنها لا تركز على حالات الاستخدام التي ستخلق قيمة طويلة الأجل كبيرة. يقول فارشني: “من الشائع أن نبدأ بمهام بسيطة وسهلة الاستخدام ، ولكن هذا النهج يمكن أن يحد”. “بدلاً من ذلك ، يجب أن تركز المنظمات على المناطق التي يمكن أن يكون فيها لمنظمة العفو الدولية أكبر تأثير ولديها أجهزة كافية لالتقاط المقاييس وتكرار الحل بشكل مستمر. أفضل نقطة انطلاق لحالات استخدام الذكاء الاصطناعي فريدة من نوعها لكل شركة ومن المهم تحديد المناطق داخل المنظمة التي يمكن أن تستفيد من التحسن. ”
كما يقول أن الخطأ الشامل للغاية هو أتمتة عملية موجودة.
“نحن بحاجة إلى إعادة التفكير في سير العمل لإلغاء قفل حقًا قوة هذه التقنيات الأسية. مع تطورنا إلى AICENC AI ، نحتاج إلى التأكد من إعادة التفكير في الطريقة المثلى لتفويض المهام المحددة إلى الوكلاء واللعب إلى نقاط قوة البشر و AI “، كما يقول فارشني.
جيم بالمر ، كبير موظفي الذكاء الاصطناعي في منصة الاتصالات التجارية وعلماء الذكاء الاصطناعي DialPadيقول التحدي الشائع هو ضمان إمكانية الوصول إلى نماذج الذكاء الاصطناعى إلى بيانات دقيقة ومحدثة ويمكن أن تتكامل بسلاسة مع سير العمل الحالي.
“هناك فجوة بين الإمكانات النظرية لـ AI وتطبيقها العملي. يقول بالمر: “تستثمر الشركات الملايين في مبادرات الذكاء الاصطناعى التي تعطي أولوية للسرعة إلى التسويق عبر المنفعة الفعلية”.
Bhadresh Patel ، مدير العمليات في شركة الخدمات المهنية العالمية RGP يعتقد أن واحدة من أكبر منظمات التحديات هي الفجوة الكبيرة بين التفكير والتنفيذ.
غالبًا ما نرى المنظمات تقوم بإعداد وظيفة منظمة العفو الدولية وتتوقع المعجزات ، لكن هذا النهج ببساطة لا يعمل. هذا هو السبب في أنه من المهم إعطاء الأولوية لحالات الاستخدام التي يمكن أن يكون لها الذكاء الاصطناعى التأثير الأكبر على العمل “، كما يقول باتيل. “منظمات التحدي الأخرى التي غالباً ما تواجهها الأشخاص الوظيفيون لا يأخذون الوقت الكافي لفهم قدرات وقيود الأدوات التي لديهم تحت تصرفهم. يجب على القادة فهم سبب استثماراتهم الجديدة من الذكاء الاصطناعي وما هو التداخل من حيث القدرات الحالية والتدريب ومعرفة المستخدم. ”
يقول Rajeeva من Acceldata إن المنظمات تتصارع غالبًا مع بيانات مجزأة أو سيئة الجودة ، مما يقوض نتائج الذكاء الاصطناعي.
“يمكن أن يكون تحجيم مبادرات الذكاء الاصطناعي من إثبات المفهوم إلى النشر على مستوى المؤسسة أمرًا شاقًا ، خاصةً بدون أطر عمل قوية. بالإضافة إلى ذلك ، فإن موازنة الابتكار مع المعايير التنظيمية والأخلاقية أمر صعب. يقول راجيفا: “الافتقار إلى المواهب الماهرة ومقاييس النجاح الواضحة يزيد من تعقيد هذه الجهود”. “يعامل أحد الأخطاء المهمة من الذكاء الاصطناعى كمبادرة للتكنولوجيا ، وتجاهل أهمية جودة البيانات والبنية التحتية. في بعض الأحيان تزيد المنظمات في نماذج متطورة دون مواءمةها مع أهداف عمل عملية. هناك خطأ شائع آخر هو فشل في التخطيط لتوسيع نطاق الذكاء الاصطناعي ، مما يؤدي إلى اختناقات تشغيلية. أخيرًا ، غالبًا ما يؤدي المراقبة غير الكافية إلى أنظمة AI متحيزة أو غير موثوقة. ”
وتذكر أن التبصر والرشاقة أكثر قيمة من 20-20 بعد فوات الأوان.
“ابدأ مع وضع النهاية في الاعتبار. حدد مقاييس النجاح قبل كتابة سطر واحد من التعليمات البرمجية. يقول Appvance’s Surace: “بناء فرق متعددة الوظائف يمكنها سد الفجوة بين الأعمال والتكنولوجيا”. “وتذكر أن استراتيجية الذكاء الاصطناعى ليست ثابتة – إنها إطار حي ، متطور يجب أن ينمو مع مؤسستك وأهدافها.”