الأمن السيبراني

إدارة المخاطر في عصر الذكاء الاصطناعي الحماية من مخاطر الذكاء الاصطناعي وسط تزايد الابتكار والمشهد التنظيمي العالمي المتغير


من المعترف به على نطاق واسع أن الذكاء الاصطناعي، وتحديدًا الذكاء الاصطناعي التوليدي (GenAI)، يحمل إمكانات هائلة لإحداث ثورة في تجارب الموظفين والعملاء، مما يوفر السرعة والبساطة وتحسين الذكاء التشغيلي. ومع ذلك، فإن تطبيق الذكاء الاصطناعي يشكل مخاطر كبيرة يمكن أن تعطل نماذج أعمال العديد من الشركات وتفتحها أمام تحديات محتملة تتعلق بالسمعة والسلامة والتحيز والامتثال – وقد أخذ المنظمون ذلك في الاعتبار.

في جميع أنحاء العالم، تتصارع الشركات والحكومات لمعالجة مخاوف الخصوصية والتحيز والهلوسة المتعلقة بأمن البيانات، بينما يتسارع ابتكار الذكاء الاصطناعي وتبنيه. على سبيل المثال، مكتب الولايات المتحدة للإدارة والميزانية المطلوبة مؤخرا على جميع الوكالات الفيدرالية إضافة كبير مسؤولي الذكاء الاصطناعي إلى صفوفها، وإنشاء مجلس إدارة الذكاء الاصطناعي، وتقديم التقارير السنوية. ومع ذلك، فإننا في المراحل الأولى من رؤية اللوائح والأطر العالمية تدخل حيز التنفيذ. يستمر الذكاء الاصطناعي في الضغط على حدود المخاطر واللوائح مثل ولاية SEC في العام الماضي، و ال قانون الذكاء الاصطناعي للاتحاد الأوروبي تم إنشاؤها في الاستجابة المباشرة. ويمكن للشركات في جميع أنحاء العالم أن تعتمد على المزيد من التدقيق والمساءلة.

في هذا المشهد التنظيمي الديناميكي، كيف يمكن لقادة التكنولوجيا ضمان الامتثال للتكنولوجيا المتطورة بشكل فعال؟

متعلق ب:تفوق الإنسانية على الذكاء الاصطناعي

ويدرك المنظمون أنه يجب وضع حواجز الحماية لضمان امتثال الشركات وعدم الكشف عن معلومات حساسة. ومع ذلك، فإن الافتقار إلى الفهم التكنولوجي من جانب الحكومات والتعريفات القانونية المتغيرة باستمرار يخلق مشهدًا غامضًا لحوكمة الذكاء الاصطناعي، مما يترك الكثير للصدفة في هذه الأثناء.

غالبًا ما يفوق الابتكار السريع للذكاء الاصطناعي السياسات الموجودة في إطار حوكمة الذكاء الاصطناعي في المؤسسة، مما يؤدي إلى فجوات في الامتثال وحالة من عدم اليقين. وهذا يؤدي إلى تعقيد جهود الحوكمة ويؤدي إلى عدم الاتساق في ممارسات إدارة المخاطر عبر الإدارات. إذا كان هناك نقص في الشفافية بشأن كيفية تدريب نماذج الذكاء الاصطناعي، فقد تواجه الشركات مشكلات في الرؤية عند تحديد القسم أو التطبيق الذي يعرض البيانات الحساسة للخطر ويتحمل مسؤولية إصلاحه.

ويكمن التحدي الآخر في الطبيعة المتعددة التخصصات لمخاطر الذكاء الاصطناعي، والتي تشمل الأبعاد الفنية والأخلاقية والقانونية والمجتمعية. لقد أدركت الشركات منذ فترة طويلة أنه لا ينبغي التفكير في إدارة المخاطر في صوامع تنظيمية، ولكن إجراء مثل هذه التغييرات قد يكون أمرًا صعبًا، خاصة عندما يتعلق الأمر بالذكاء الاصطناعي. وهذا يزيد من تعقيد مبادرات حوكمة الذكاء الاصطناعي، مما يتطلب تعاونًا وثيقًا بين مختلف أصحاب المصلحة ذوي الخبرات المتنوعة. خذ على سبيل المثال اللائحة العامة لحماية البيانات (GDPR). إذا طلب أحد مواطني الاتحاد الأوروبي حذف بياناته الشخصية، فإن الطلب يؤثر على جميع الاستخدامات. إذا كانت LLM تستخدم هذه البيانات، فهناك آثار قانونية وخصوصية وفنية إذا لم تقم الشركات بإزالة تلك البيانات بالكامل. يعمل GenAI بشكل جيد على البيانات غير المنظمة (مثل الصور والبيانات الحيوية)، لذا فإن عناصر التحكم المصممة للبيانات المنظمة (مثل أرقام الضمان الاجتماعي أو العناوين) ليست فعالة.

متعلق ب:الذكاء الاصطناعي وMetaverse وDEI في مكان العمل

توضح هذه الأمثلة الحاجة إلى إطار عمل شامل لحوكمة الذكاء الاصطناعي، مما يرفع دور إدارة المخاطر إلى مستشار استراتيجي ديناميكي يرشد الشركات عبر تضاريس جديدة وغير مألوفة ومتغيرة.

المحاسبة عن الذكاء الاصطناعي في إدارة المخاطر

تتطلب الإدارة الفعالة للمخاطر رؤية واضحة لمشهد المخاطر بأكمله، وتلعب وظيفة المخاطر دورًا حاسمًا في ضمان الاستخدام المسؤول لـ GenAI ومواءمته مع المبادئ التوجيهية الأخلاقية والمتطلبات القانونية. على سبيل المثال، تحتاج ممارسات إدارة المخاطر التابعة لجهات خارجية إلى استيعاب استخدام الذكاء الاصطناعي، وضمان المراقبة المناسبة للأنظمة، وتوفير الشفافية والمساءلة عبر ممارساتها. من خلال تحديد معاييرك الداخلية، يمكنك بعد ذلك تثقيف شركائك حول التوقعات الخاصة بـ GenAI – تمامًا كما تفعل مع متطلبات الامتثال للأمن السيبراني والبيئة والحوكمة البيئية والاجتماعية والحوكمة (ESG).

متعلق ب:هل فقاعة الذكاء الاصطناعي أمر لا مفر منه؟

تحتاج فرق تكنولوجيا المعلومات والمخاطر والأمن أيضًا إلى العمل بالتنسيق مع بعضها البعض، والاستفادة من الحلول التي تسمح لهم بمراقبة كل جانب من جوانب نشر المؤسسة واستخدام الذكاء الاصطناعي، أو GenAI، في الوقت الفعلي للدفاع بشكل مستمر ضد نقاط الضعف. يجب على الفرق تطوير عمليات قابلة للتكيف للاستجابة بسرعة لمجموعة واسعة من التحديات مثل استخدام GenAI من قبل أطراف ثالثة، وتنظيم الذكاء الاصطناعي المتطور، ونقاط ضعف واجهة برمجة التطبيقات، وعدم دقة LLM أو الهلوسة.

مع تطور البيئات لدمج GenAI، يجب على الشركات الحفاظ على اليقظة. أفضل طريقة للقيام بذلك هي توسيع ممارسات إدارة المخاطر الخاصة بهم لتشمل الذكاء الاصطناعي. وهذا يعني أنه يجب على المؤسسات تقييم المخاطر بشكل استباقي، ومراقبة تطبيقات الذكاء الاصطناعي بشكل مستمر، وتحديد التهديدات والتعرضات الجديدة للذكاء الاصطناعي، وتقييم تأثير الذكاء الاصطناعي على الأعمال، وتدريب الموظفين على أفضل ممارسات الذكاء الاصطناعي، وفهم كيفية التكيف بسرعة مع خلفية الذكاء الاصطناعي.

ضمان الاعتبار المدروس في تنفيذ الذكاء الاصطناعي

نظرًا لأن مشهد مخاطر الذكاء الاصطناعي أصبح غير واضح بشكل تدريجي، فمن المهم أن نتذكر أن GenAI أبعد ما يكون عن حل “الضبط والنسيان”. ويجب أن تتم إدارة اعتماده بعناية ومدروس لتجنب المخاطر غير المبررة.

لضمان التطبيق الأخلاقي وحماية البيانات، يجب أن تكون الأولوية الأولى للشركة هي التحكم في استخدام GenAI مع إرشادات واضحة حول أفضل الممارسات الداخلية. يجب أن يعرف الموظفون ما هو ضمن حدود الاستخدام المناسب للذكاء الاصطناعي ولماذا لا ينبغي عليهم العمل حول النظام، مما يعرض الشركة للخطر في النهاية.

وفي الوقت نفسه، ينبغي للجنة حوكمة الذكاء الاصطناعي أن تحدد سياسات وإرشادات واقعية للاستخدام داخليًا ومن قبل شركاء الأعمال. إن أفضل الممارسات التشغيلية وحوكمة الذكاء الاصطناعي هما وجهان لعملة واحدة يحددان النجاح في النهاية.

إذا تم تطبيقه بشكل مسؤول ومع بذل العناية الواجبة، فإن فوائد GenAI لا لبس فيها. من خلال دمج ممارسات إدارة المخاطر في نسيج تطوير GenAI ونشره واستخدامه، يمكن للمؤسسات تعزيز الثقة وتخفيف المخاطر وتعظيم فوائد الذكاء الاصطناعي.





Source link

زر الذهاب إلى الأعلى