دليل للقادة الأمنيين
يعمل الذكاء الاصطناعي على إحداث تحول سريع في مشهد الأعمال، حيث يغير بالفعل الطريقة التي نعمل بها وننشئ ونجمع رؤى البيانات. هذا العام، 72٪ من المنظمات لقد اعتمدوا الذكاء الاصطناعي التوليدي بطريقة ما، وقد اعتمد 50% منهم الذكاء الاصطناعي في وظيفتين أو أكثر من وظائف الأعمال – ارتفاعًا من أقل من ثلث المشاركين في عام 2023. ومن ناحية أخرى، مع تزايد اعتماد الذكاء الاصطناعي، تتزايد أيضًا المخاوف المتعلقة بالأمن – مع 45% من المؤسسات تعاني من التعرض للبيانات أثناء تطبيق الذكاء الاصطناعي. يواجه مدراء تكنولوجيا المعلومات وقادة الأمن الآن التحدي الحاسم المتمثل في تحقيق التوازن بين تنفيذ الذكاء الاصطناعي والمخاطر المتزايدة المتعلقة بأمن البيانات.
وفي الوقت نفسه، تحول الوكالات الحكومية اهتمامها أيضًا إلى المخاوف الأمنية الخاصة بالذكاء الاصطناعي – ويتطور المشهد التنظيمي المحيط بالتكنولوجيا بسرعة. ولا تزال حالة عدم اليقين قائمة على المستوى الفيدرالي، حيث لا توجد هيئة تشريعية شاملة حاليا في الولايات المتحدة لوضع حواجز حماية لاستخدام أدوات الذكاء الاصطناعي. ومع ذلك، فإن الأطر بما في ذلك ميثاق حقوق منظمة العفو الدولية و أمر تنفيذي بشأن الذكاء الاصطناعي، بالإضافة إلى اللوائح على مستوى الولاية مثل قانون كولورادو للذكاء الاصطناعي (مع 45 ولاية أخرى في عام 2024 تقدم فواتير الذكاء الاصطناعي)، تكتسب زخمًا – حيث تتطلع الحكومات والمنظمات إلى التخفيف من المخاطر الأمنية المرتبطة باستخدام الذكاء الاصطناعي.
للاستعداد للوائح سريعة التطور في مشهد التهديدات الذي لا يمكن التنبؤ به اليوم، مع الاستمرار في تطوير مبادرات الذكاء الاصطناعي عبر المؤسسة، إليك الاستراتيجيات التي يجب على قادة الأمن تحديد أولوياتها في العام المقبل:
بناء بنية تحتية قوية لإدارة البيانات: سواء كانت المؤسسة جاهزة لاعتماد الذكاء الاصطناعي على نطاق واسع أم لا، فإن تنفيذ إدارة البيانات المتقدمة والحوكمة والبنية التحتية لدورة الحياة أمر بالغ الأهمية للحفاظ على المعلومات آمنة من التهديد. لكن، لا تزال 44% من المؤسسات تفتقر إلى التدابير الأساسية لإدارة المعلومات، وما يزيد قليلاً عن النصف فقط لديه تدابير أساسية مثل سياسات الأرشفة والاحتفاظ (56%) وحلول إدارة دورة الحياة (56%).
وللحفاظ على البيانات الحساسة آمنة من التهديدات المحتملة، يجب وضع سياسات الإدارة والوصول المناسبة قبل تنفيذ الذكاء الاصطناعي على نطاق واسع. وبهذه الطريقة، لا يقوم الموظفون بمشاركة المعلومات الحساسة عن غير قصد باستخدام أدوات الذكاء الاصطناعي. بالإضافة إلى الحفاظ على أمان البيانات، فإن استخدام سياسات الحوكمة المناسبة والاستثمار في الأدوات الآلية اللازمة للقيام بذلك يمكن أن يساعد أيضًا في تبسيط الامتثال للوائح الجديدة – دعم قادة الأمن من خلال بناء بنية تحتية للبيانات أكثر مرونة ومرونة لمواكبة هذه التطورات سريعة الحركة .
الاستفادة من المعايير الحالية لاستخدام الذكاء الاصطناعي: لإعداد ممارسات البيانات والأمن للوائح الجديدة في السنوات القادمة، يمكن لرؤساء أمن المعلومات التطلع إلى المعايير الحالية المعترف بها على نطاق واسع لاستخدام الذكاء الاصطناعي داخل الصناعة. المعايير الدولية مثل آيزو/آي إي سي 42001 الخطوط العريضة للممارسات الموصى بها للمؤسسات التي تتطلع إلى استخدام أدوات الذكاء الاصطناعي، لدعم التطوير والاستخدام المسؤول وتوفير هيكل لإدارة المخاطر وإدارة البيانات. إن مواءمة الممارسات الداخلية مع أطر عمل مثل ISO/IEC في وقت مبكر من عملية التنفيذ يضمن أن ممارسات بيانات الذكاء الاصطناعي تلبي المعايير المقبولة على نطاق واسع فيما يتعلق بالأمن والأخلاق – مما يؤدي إلى تبسيط الامتثال التنظيمي في المستقبل.
تعزيز الثقافة والمبادئ التي تركز على الأمن: يجب أن يسعى قادة الأمن إلى التأكيد على أن الأمن هو مهمة الجميع في المؤسسة، وأن جميع الأفراد يلعبون دورًا في الحفاظ على البيانات آمنة من التهديدات. يضمن التعليم المستمر حول الذكاء الاصطناعي واللوائح الجديدة (من خلال الدورات التدريبية المتطورة والمخصصة للغاية) أن جميع أعضاء المنظمة يعرفون كيفية استخدام التكنولوجيا بأمان – وأنهم على استعداد لتلبية المعايير والتفويضات الجديدة للأمن في السنوات القادمة.
إن اعتماد مبادئ “عدم الإضرار” سيساعد أيضًا على تحصين المنظمة في المستقبل من أجل تلبية اللوائح الجديدة. يتضمن ذلك إجراء تقييم دقيق لجميع العواقب والآثار المحتملة للذكاء الاصطناعي قبل التنفيذ، وتقييم كيفية تأثير هذه الأدوات على جميع الأفراد وأصحاب المصلحة. من المهم وضع هذه المبادئ في وقت مبكر – الإبلاغ عن القيود التي يجب وضعها لمنع سوء الاستخدام المحتمل وإعداد فرق الأمان للوائح المستقبلية المتعلقة بالاستخدام الأخلاقي والعادل.
بينما نستمر في رؤية لوائح جديدة للذكاء الاصطناعي تتشكل في السنوات القادمة، يحتاج قادة الأمن والأعمال إلى تركيز اهتمامهم على كيفية إعداد مؤسستهم بأكملها لتلبية معايير الامتثال الجديدة. مع استمرار رؤساء أمن المعلومات في مواجهة عدم اليقين بشأن كيفية تقدم اللوائح، تعد هذه إشارة قوية لحماية البيانات وضمان الاستعداد الفردي الآن لتلبية المعايير الجديدة، لأنها تتطور بسرعة. الذكاء الاصطناعي موجود الآن في كل مكان، والاستخدام الأخلاقي والآمن والمتوافق هو جهد على مستوى المنظمة في عام 2025 – والذي يبدأ ببناء الإدارة المناسبة للبيانات ومبادئ الاستخدام العادل والتأكيد على الوعي الأمني لجميع الأفراد.