الأمن السيبراني

هل مؤسستك معرضة لـ Shadow AI؟


يكمن في فترات الاستراحة المظلمة لكل مؤسسة المطورون وغيرهم من أعضاء فريق تكنولوجيا المعلومات المتمرسين في مجال التكنولوجيا الذين يرغبون في تجاوز الحدود. مثل هؤلاء الأفراد ليسوا على استعداد للانتظار حتى تقوم تكنولوجيا المعلومات بختم موافقتها على أداة برمجية جديدة. فهم يعملون خلسةً ودون إشراف، ويواصلون استخدام التكنولوجيا غير المصرح بها، بغض النظر عن الآثار الأمنية المحتملة، وغالبًا ما يشاركون ابتكاراتهم مع زملائهم المطمئنين.

عندما يتعلق الأمر بعمليات نشر الذكاء الاصطناعي في الظل، فإن المخاطر تزداد بشكل كبير. يشير مصطلح الذكاء الاصطناعي الظل إلى برامج الذكاء الاصطناعي المستخدمة دون موافقة أو معرفة قادة المنظمة. لسنوات عديدة، ناضل مديرو تكنولوجيا المعلومات ومديرو تكنولوجيا المعلومات مع تكنولوجيا المعلومات الظلية – استخدام أي أداة برمجية غير مصرح بها بشكل محدد من قبل رؤساء تكنولوجيا المعلومات. يقول تومي غاردنر، المدير التنفيذي للتكنولوجيا في شركة HP Federal: “تطرح هذه المشكلة نفسها الآن في شكل أدوات الذكاء الاصطناعي”.

يظهر الذكاء الاصطناعي الظلي عادةً عندما يقفز العلماء ومهندسو البرمجيات إلى تقنيات جديدة مفتوحة المصدر ويطبقونها في عملهم، وغالبًا ما يكون ذلك في البداية لمجرد تجربتها، كما يقول سكوت زولدي، كبير مسؤولي التحليلات في خدمة تسجيل الائتمان FICO. “بمجرد إنشائها، يتم استخدامها باستمرار دون إعادتها إلى أي عمليات حوكمة رسمية لنموذج الذكاء الاصطناعي.” غالبًا ما لا تفهم المنظمات التي تتصارع مع الذكاء الاصطناعي الظلي من قام بإنشائه، وكيف يتم استخدامه، ولأي أغراض، وكل ذلك يمكن أن يخلق مخاطر كبيرة.

متعلق ب:الحد من مخاطر الذكاء الاصطناعي مع زيادة الذكاء فيما يتعلق باستخداماته

خطر وشيك

ربما يكون الخطر الأكبر المرتبط بالذكاء الاصطناعي الظلي الذي لم تتم معالجته هو أن بيانات المؤسسة الحساسة قد تقع في الأيدي الخطأ. يشكل هذا خطرًا كبيرًا على الخصوصية والسرية، كما يحذر لاري كينكيد، المدير الاستشاري في شركة BARR Advisory، وهي شركة تقدم حلول الأمن السيبراني والامتثال. “يمكن استخدام البيانات لتدريب نماذج الذكاء الاصطناعي المختلطة، أو الأسوأ من ذلك، العامة، مما يتيح للجهات الفاعلة السيئة الوصول إلى المعلومات الحساسة التي يمكن استخدامها لاختراق شبكة شركتك أو خدماتها.” ويضيف أنه قد تكون هناك أيضًا تداعيات مالية خطيرة إذا كانت البيانات خاضعة للحماية القانونية أو القانونية أو التنظيمية.

يقول زولدي إن المنظمات المكرسة لنشر واستخدام الذكاء الاصطناعي بشكل مسؤول تتبع ممارسات قوية وقابلة للتفسير وأخلاقية وقابلة للتدقيق. “تشكل هذه الممارسات معًا الأساس لإطار حوكمة مسؤول للذكاء الاصطناعي.” يحدث Shadow AI بعيدًا عن الأنظار وبعيدًا عن حواجز حوكمة الذكاء الاصطناعي. عند استخدامها لاتخاذ القرارات أو التأثير على العمليات التجارية، فإنها عادةً لا تلبي حتى معايير الإدارة الأساسية. ويحذر من أن “مثل هذا الذكاء الاصطناعي لا يخضع للرقابة، وهو ما قد يجعل استخدامه غير أخلاقي وغير مستقر وغير آمن، مما يخلق مخاطر غير معروفة”.

متعلق ب:أهم الأخطاء الأمنية السحابية (وكيفية تجنبها)

قد يبدو الأمر غير ضار عندما يقوم الموظفون بتنزيل برنامج مدعوم بالذكاء الاصطناعي على الكمبيوتر المحمول الخاص بعملهم دون إذن. ومع ذلك، ينشأ القلق عندما يحتوي هذا البرنامج على ثغرة أمنية قابلة للاستغلال. “إذا لم يكن فريق تكنولوجيا المعلومات على علم بأن هذه البرامج قيد الاستخدام، فلن يتمكنوا من اتخاذ الإجراءات الوقائية المناسبة للتغلب على المشكلة وقد تتعرض بيانات الشركة للخطر”، يوضح غاردنر.

المشتبه بهم المحتملين

الذكاء الاصطناعي هو تقنية تحويلية تتمتع بالقدرة على تحسين طريقة استخدام الشركات للبيانات بشكل أساسي، فضلاً عن إدارة تفاعلات العملاء. يقول زولدي: “عند الاستفادة من الذكاء الاصطناعي بشكل صحيح، يمكن للمؤسسات اتخاذ قرارات مستنيرة بالبيانات وبسرعة فائقة”. “ومع ذلك، مع ظل الذكاء الاصطناعي، غالبًا ما لا يفهم المبدعون أو يتوقعون المخاطر الكامنة التي تصاحب استخدام الذكاء الاصطناعي.”

مصدر الظل الاصطناعي الأكثر شيوعًا هو الموظفون أو الفرق المجتهدون الذين يقومون بتنزيل تطبيق واحد أو أكثر غير مصرح به بهدف نبيل هو استخدام الذكاء الاصطناعي لحل المشكلات الفورية أو التحقيق في عمليات جديدة. ومع ذلك، في حين أن استخدام أدوات الإنتاجية المدعومة بالذكاء الاصطناعي أو ميزات التحرير لإنجاز مهمة ما قد يبدو غير ضار نسبيًا، إلا أنه يمكن أن تنشأ نقاط ضعف خطيرة عند الفشل في اتباع عملية الموافقة الرسمية، كما يوضح جاردنر. ويشير إلى أنه “على الرغم من أن هذه الأدوات يمكن أن تكون خيارات رائعة لحل مشكلة ما على المدى القصير، إلا أنها تشكل مشكلة أمنية محتملة للمؤسسة”.

التدابير الدفاعية

إلى جانب توفير التدريب على الوعي الأمني ​​للموظفين، يجب على المؤسسات التي تهدف إلى التخفيف من المخاطر المرتبطة بالذكاء الاصطناعي الظلي إنشاء حوكمة واضحة من خلال سياسات الاستخدام المقبولة، كما ينصح كينكيد. ويضيف: “تأكد من معالجة استخدام الذكاء الاصطناعي ضمن تقييمات المخاطر الرسمية”.

يشدد زولدي على أهمية تنبيه المؤسسة بأكملها إلى خطر الذكاء الاصطناعي. “يمكن استخدام الذكاء الاصطناعي في أي قسم، بدءًا من الشؤون القانونية والموارد البشرية وحتى تطوير البرمجيات والمبيعات وتخطيط الأعمال ودعم العملاء وما هو أبعد من ذلك.”

ويقول زولدي إنه من المهم أيضًا أن يتم الوصول إلى خوارزميات الذكاء الاصطناعي من خلال شبكة خاصة مدعومة بممارسات أمنية خاضعة للرقابة. “وهذا يعني، كخط دفاع أول، منع الوصول إلى التعليمات البرمجية مفتوحة المصدر.” يحتاج المستخدمون الذين يرغبون في الاستفادة من الذكاء الاصطناعي مفتوح المصدر إلى الخضوع لعملية مراجعة خاضعة للرقابة.

فائدة واحدة محتملة

على الرغم من الخطر، يمكن أن يقدم الذكاء الاصطناعي الظلي فائدة كبيرة، بمجرد اكتشافه وتحديده وتحييده. يقول كينكيد: “يمكن أن يكون مفيدًا في توفير نقطة انطلاق لبناء وتعديل أفكار الذكاء الاصطناعي”.





Source link

زر الذهاب إلى الأعلى