تقنية

لماذا تعد إمكانية استرداد وكيل الذكاء الاصطناعي أمرًا حيويًا لمرونة الأعمال


هذه مشاركة مدونة ضيف بقلم ريتشارد كاسيدي، كبير مسؤولي أمن المعلومات في أوروبا والشرق الأوسط وأفريقيا، روبريك

لقد دخل الذكاء الاصطناعي مرحلة جديدة. لم تعد المنظمات مجرد تجربة نماذج التعلم الآلي أو التحليلات التنبؤية. لقد بدأوا في نشر عملاء الذكاء الاصطناعي المستقلين الذين يمكنهم اتخاذ القرارات وتنفيذ المهام بسرعة الآلة، مما يمكنهم من اتخاذ القرار والتصرف بشكل فوري تقريبًا. في حين أن وكلاء الذكاء الاصطناعي يقدمون العديد من الفوائد التجارية، بدءًا من العمليات الأسرع وحتى الجهود اليدوية المنخفضة، إلا أنهم يقدمون أيضًا فئة جديدة من المخاطر للمنظمات.

التعامل مع وكلاء الذكاء الاصطناعي كموظفين

مع طرح الشركات لوكلاء الذكاء الاصطناعي، يجب على قادة الأعمال إدارتهم كما يفعلون مع الموظفين الجدد. قد يبدو هؤلاء الوكلاء وكأنهم تكنولوجيا خلفية، لكن قراراتهم يمكن أن تشكل النتائج بشكل كبير إيجابًا وسلبًا. ولذلك، يجب أن يكون وكلاء الذكاء الاصطناعي على متن الطائرة الأقل امتيازا، ومنحهم فقط الحد الأدنى من الوصول والأذونات اللازمة لأداء مهامهم. بنفس الطريقة التي تراقب بها الموظفين البشريين، يجب أيضًا مراقبتهم بشكل مستمر ومحاسبتهم على أفعالهم. تعد إدارة الهوية جزءًا أساسيًا من هذه الصورة لأنها الإطار الذي يحدد كيفية إنشاء الهويات وحقوق الوصول الخاصة بها وإدارتها. ومع ذلك، فإن الحكم وحده لا يكفي. والحقيقة هي أن الأخطاء سوف تحدث، بغض النظر عن مدى دقة تطبيقنا للضوابط. ما يهم هو مدى السرعة التي يمكننا بها العودة إلى الحالة الآمنة عند حدوث هذه الأخطاء.

أصبحت المحادثات حول إمكانية الاسترداد أمرًا حيويًا. إذا لم تتمكن المؤسسات من استعادة وكيل الذكاء الاصطناعي إلى حالته السابقة أو التراجع عن التغييرات التي أجراها، فسيتم تركها مكشوفة. ولا يقتصر الخطر على التوقف التشغيلي فحسب، بل يكمن أيضًا في فقدان الثقة في التكنولوجيا نفسها.

لماذا تفشل الأساليب الحالية؟

اليوم، تنقسم معظم الأدوات الموجودة في السوق إلى فئتين. من ناحية، لديك أدوات مراقبة يمكنها إخبارك بما فعله عميل الذكاء الاصطناعي. ومن ناحية أخرى، لديك أدوات حماية مصممة لمنع سلوكيات معينة. كلا الأسلوبين لهما قيمة – فالمراقبة توفر الرؤية بينما تعمل حواجز الحماية على تقليل مخاطر وقوع الحوادث. لكن أياً منهما لا يجيب على السؤال الأكثر إلحاحاً: ماذا يحدث بعد الخطأ؟

إذا قام وكيل AI بحذف ملف مجموعة خاطئة من السجلات، أو يدفع تحديثًا خاطئًا خلال سير العمل، فمعرفة ما حدث ليس كافيًا. تحتاج المنظمة إلى القدرة على العودة إلى الحالة النظيفة على الفور.

التعلم من قواعد المرونة

صمود أصبح مبدأ أساسيا في الأمن السيبراني الحديث. وقد أظهرت الهجمات السيبرانية البارزة الأخيرة في المملكة المتحدة أن التركيز على الوقاية وحده لا يكفي؛ إن القدرة على التعافي بسرعة وثقة هي ما يهم. ولا تزال العديد من هذه المنظمات تتعامل مع التداعيات المستمرة والتعطيل التشغيلي والخسائر المالية الناجمة عن الانتهاكات. نظرًا لأهمية التعافي السريع لتقليل الضرر، ينطبق نفس الدرس الآن على الذكاء الاصطناعي الوكيل. وفي حين تحقق هذه الأنظمة مكاسب كبيرة في الكفاءة، فإنها عرضة بنفس القدر لأشكال جديدة من الفشل؛ فعندما يخطئون، يمكن أن يتصاعد التأثير بشكل أسرع بكثير من أي خطأ بشري. وفي هذا السياق، يجب أن تعني المرونة أكثر من مجرد إدارة الهوية أو مراقبة النشاط. ويتطلب ذلك ضمانًا أنه في حالة حدوث خلل، يمكن للمؤسسات التعافي ومواصلة القيام بالأعمال دون فقدان الثقة أو السيطرة.

البصيرة الجنائية بالإضافة إلى التراجع

لمواصلة الابتكار بأمان باستخدام عملاء الذكاء الاصطناعي، يجب أن تكون المؤسسات مستعدة لتطبيق عمليات تحقيق شاملة لفهم الأخطاء التي حدثت ولماذا. وهذا يعني وجود رؤية ثاقبة على مستوى الطب الشرعي في عملية صنع القرار التي يتخذها الوكيل، وليس مجرد التركيز على النتيجة. فقط من خلال فهم الأسباب الكامنة وراء الإجراء يمكن للفرق التعلم ومنع تكراره.

إلى جانب هذا هناك الحاجة إلى التراجع الفوري. إذا ارتكب الوكيل خطأً ما، فمن المفترض أن تتمكن فرق تكنولوجيا المعلومات من العودة إلى الحالة النظيفة خلال دقائق. إن الجمع بين الرؤية الجنائية والتعافي السريع هو ما يمنح المؤسسات الثقة لاستخدام الذكاء الاصطناعي على نطاق واسع دون خوف من التعطيل.

الاستعداد للخطأ غير البشري

لقد ركزت المرونة التنظيمية تقليديًا على الأخطاء البشرية والهجمات الضارة وانقطاع النظام. يقدم Agentic AI فئة جديدة تمامًا: الخطأ غير البشري.

إن المنظمات التي تستعد الآن، مع وجود الحوكمة وقابلية التعافي، ستكون قادرة على الابتكار بثقة. أما أولئك الذين لا يفعلون ذلك فقد يجدون أنفسهم غير قادرين على الثقة في نفس الأدوات التي كانوا يأملون أن تغير عملياتهم.

القدرة على التحمل لا تقتصر على الدفاع فقط. يتعلق الأمر بضمان الاستمرارية، والحفاظ على الثقة، وتهيئة الظروف اللازمة لتحقيق انتعاش قوي. ومع اعتماد المؤسسات للذكاء الاصطناعي الوكيل، يجب أن تصبح إمكانية الاسترداد جزءًا أساسيًا من تلك الاستراتيجية. في حين أن وكلاء الذكاء الاصطناعي يقدمون إمكانات تشغيلية كبيرة، إلا أنهم يشكلون أيضًا مخاطر نظامية إذا لم يتم إدارتهم والسيطرة عليهم بشكل فعال.

ريتشارد كاسيدي هو رئيس قسم تكنولوجيا المعلومات في أوروبا والشرق الأوسط وأفريقيا، روبريك.



Source link

زر الذهاب إلى الأعلى