كيف يمكن لمسؤولي تكنولوجيا المعلومات تنفيذ حوكمة GenAI

سرعان ما أصبحت أدوات الذكاء الاصطناعي التوليدية لا غنى عنها لتطوير البرمجيات، حيث توفر وقودًا عالي الأوكتان لتسريع إنتاج التعليمات البرمجية الوظيفية، وفي بعض الحالات، حتى المساعدة في تحسين الأمان. لكن هذه الأدوات تسبب أيضًا مخاطر جسيمة للمؤسسات بشكل أسرع من قدرة كبار مسؤولي أمن المعلومات وفرقهم على التخفيف من هذه المخاطر.
وتسعى الحكومات جاهدة إلى وضعها موضع التنفيذ التشريعات والسياسات التي تحكم استخدام الذكاء الاصطناعي، بدءًا من قانون الذكاء الاصطناعي الشامل نسبيًا للاتحاد الأوروبي وحتى الجهود التنظيمية في 54 دولة على الأقل. وفي الولايات المتحدة، تتم معالجة حوكمة الذكاء الاصطناعي على المستوى الفيدرالي ومستوى الولايات، كما تعمل إدارة الرئيس دونالد ترامب على الترويج لذلك استثمارات واسعة النطاق في تطوير الذكاء الاصطناعي.
لكن تحركات الحكومة تسير بشكل أبطأ من وتيرة ابتكار الذكاء الاصطناعي واعتماده في جميع أنحاء الأعمال. حتى 27 يونيو/حزيران، على سبيل المثال، قدمت المجالس التشريعية في الولايات حوالي 260 مشروع قانون يتعلق بالذكاء الاصطناعي خلال الجلسات التشريعية لعام 2025، ولكن تم إقرار 22 منها فقط، وفقًا لـ بحث أجراه معهد بروكينجز. يتم أيضًا استهداف العديد من المقترحات بشكل انتقائي، حيث تتناول البنية التحتية أو التدريب أو التزييف العميق أو الشفافية. تم تصميم بعضها للحصول على التزامات طوعية من شركات الذكاء الاصطناعي.
إن تحركات الحكومة تسير بشكل أبطأ من وتيرة ابتكار الذكاء الاصطناعي واعتماده في جميع أنحاء الأعمال.
ومع تطور تشابك قوانين ولوائح الذكاء الاصطناعي العالمية بنفس سرعة تطور التكنولوجيا نفسها تقريبًا، ستزيد الشركات من المخاطر إذا انتظرت أن يُطلب منها التصرف بشأن المخاطر الأمنية المحتملة. إنهم بحاجة إلى فهم كيفية حماية قاعدة التعليمات البرمجية والمستخدمين النهائيين من الأزمات السيبرانية المحتملة.
يحتاج CISOs إلى إنشاء أطر حوكمة الذكاء الاصطناعي الخاصة بهم لتحقيق الاستخدام الأفضل والأكثر أمانًا للذكاء الاصطناعي ولحماية أنفسهم من الخسائر المالية والمسؤولية.
تتزايد المخاطر مع التعليمات البرمجية التي ينشئها الذكاء الاصطناعي
من السهل رؤية أسباب النمو السريع للذكاء الاصطناعي في تطوير البرمجيات. في Darktrace 2025 حالة الأمن السيبراني للذكاء الاصطناعي وفقًا للتقرير، قال 88% من المشاركين البالغ عددهم 1500 شخصًا إنهم يشهدون بالفعل توفيرًا كبيرًا في الوقت نتيجة استخدام الذكاء الاصطناعي. ويقول 95% منهم أنهم يعتقدون أن الذكاء الاصطناعي يمكنه تحسين سرعة وكفاءة الدفاع السيبراني. لا تفضل الغالبية العظمى من المطورين استخدام أدوات الذكاء الاصطناعي فحسب، بل بدأ العديد من الرؤساء التنفيذيين أيضًا في فرض استخدامها.
ومع ذلك، كما هو الحال مع أي تقنية جديدة قوية، فإن الحذاء الآخر سوف يسقط ويمكن أن يكون له تأثير كبير على مخاطر المؤسسة. زيادة إنتاجية أدوات الذكاء الاصطناعي التوليدية كما يؤدي أيضًا إلى زيادة في العيوب المألوفة، مثل أخطاء المصادقة والتكوينات الخاطئة، بالإضافة إلى موجة جديدة من التهديدات التي يحملها الذكاء الاصطناعي، مثل هجمات الحقن الفوري. وقد تتفاقم احتمالات حدوث المشاكل.
مؤخرًا بحث بواسطة Apiiro وجدت أن أدوات الذكاء الاصطناعي زادت من سرعة التطوير بمقدار ثلاث إلى أربع مرات، ولكنها زادت أيضًا من المخاطر بمقدار عشرة أضعاف. على الرغم من أن أدوات الذكاء الاصطناعي قامت بإصلاح أخطاء بسيطة نسبيًا، مثل الأخطاء النحوية (بنسبة 76%) والأخطاء المنطقية (بنسبة 60%)، إلا أنها تقدم مشكلات أكبر. على سبيل المثال، زاد تصعيد الامتيازات، الذي يحصل فيه المهاجم على مستويات أعلى من الوصول، بنسبة 322%، وقفزت مشاكل التصميم المعماري بنسبة 153% وفقًا للتقرير.
يدرك مدراء تكنولوجيا المعلومات أن المخاطر تتزايد، ولكن ليس جميعهم متأكدين من كيفية التعامل معها. في تقرير Darktrace، قال 78% من مدراء تكنولوجيا المعلومات أنهم يعتقدون أن الذكاء الاصطناعي يؤثر على الأمن السيبراني. وقال معظمهم إنهم مستعدون بشكل أفضل مما كانوا عليه قبل عام، لكن 45% اعترفوا بأنهم ما زالوا غير مستعدين لمعالجة المشكلة.
لقد حان الوقت لكي يقوم مدراء تكنولوجيا المعلومات بتنفيذ حواجز الحماية الأساسية للتخفيف من مخاطر استخدام الذكاء الاصطناعي ووضع سياسات حوكمة يمكن أن تدوم، بغض النظر عن المتطلبات التنظيمية التي تنشأ من المسارات التشريعية.
يبدأ الاستخدام الآمن للذكاء الاصطناعي مع SDLC
على الرغم من جميع المزايا التي يوفرها من حيث السرعة والوظائف، فإن التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي ليست جاهزة للنشر. وفقًا لـ BaxBench، فإن 62% من التعليمات البرمجية التي تم إنشاؤها بواسطة نماذج اللغات الكبيرة (LLMs) إما غير صحيحة أو تحتوي على ثغرة أمنية. وقد وجد باحثو فيراكود الذين يدرسون أكثر من 100 نموذج لغوي كبير أن 45% من التعليمات البرمجية الوظيفية غير آمنة، بينما حدد الباحثون في جامعة كورنيل أن حوالي 30% منها تحتوي على ثغرات أمنية تتعلق بـ 38 تعدادًا مختلفًا للضعف المشترك فئات. يؤدي الافتقار إلى الرؤية والحوكمة حول كيفية استخدام أدوات الذكاء الاصطناعي إلى خلق مخاطر جسيمة للمؤسسات، مما يجعلها عرضة للهجمات التي تؤدي إلى سرقة البيانات والخسائر المالية والإضرار بالسمعة، من بين عواقب أخرى.
نظرًا لأن نقاط الضعف المرتبطة بتطوير الذكاء الاصطناعي تنبع من جودة التعليمات البرمجية التي ينشئها، تحتاج المؤسسات إلى دمج الحوكمة في دورة حياة تطوير البرمجيات (SDLC). يمكن للمنصة (بدلاً من الحلول النقطية) التي تركز على المشكلات الرئيسية التي تواجه تطوير برمجيات الذكاء الاصطناعي أن تساعد المؤسسات على التحكم في هذه العملية المتسارعة باستمرار.
يجب أن تتضمن ميزات هذه المنصة ما يلي:
إمكانية الملاحظة: يجب أن تتمتع الشركات برؤية واضحة للتنمية المدعومة بالذكاء الاصطناعي. يجب أن يعرفوا المطورين الذين يستخدمون نماذج LLM وقواعد التعليمات البرمجية التي يعملون بها. يمكن أن تساعد الرؤية العميقة أيضًا في الحد من استخدام الظل الاصطناعي بين الموظفين الذين يستخدمون أدوات غير معتمدة.
الحوكمة: يجب أن يكون لدى المؤسسات فكرة واضحة عن كيفية استخدام الذكاء الاصطناعي ومن سيستخدمه، الأمر الذي يتطلب سياسات حوكمة واضحة. وبمجرد وضع هذه السياسات، يمكن للمنصة أتمتة عملية إنفاذ السياسات للتأكد من أن المطورين الذين يستخدمون الذكاء الاصطناعي يستوفون معايير الترميز الآمن قبل قبول عملهم للاستخدام الإنتاجي.
مقاييس المخاطر وقياس الأداء: يمكن للمعايير أن تحدد مستويات المهارات التي يحتاجها المطورون لإنشاء تعليمات برمجية آمنة ومراجعة التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وقياس تقدم المطورين في التدريب ومدى نجاحهم في تطبيق تلك المهارات في العمل. ستتضمن الإستراتيجية الفعالة مراجعات إلزامية للتعليمات البرمجية التي تركز على الأمان لجميع التعليمات البرمجية المدعومة بالذكاء الاصطناعي، ووضع معايير لكفاءة التشفير الآمن للمطورين واختيار أدوات الذكاء الاصطناعي المعتمدة والمفحوصة أمنيًا فقط. إن ربط التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي بمستويات مهارات المطورين، ونقاط الضعف الناتجة والالتزامات الفعلية تمكنك من فهم المستوى الحقيقي للمخاطر الأمنية التي يتم تقديمها مع ضمان تقليل مستوى المخاطر إلى الحد الأدنى.
لا يوجد تراجع عن الدور المتنامي للذكاء الاصطناعي في تطوير البرمجيات، ولكن لا ينبغي أن يكون بمثابة تهمة متهورة نحو زيادة الإنتاجية على حساب الأمن. لا تستطيع الشركات تحمل هذه المخاطرة. بدأت اللوائح الحكومية تتشكل، ولكن نظرًا لوتيرة التقدم التكنولوجي، فمن المرجح أن تكون دائمًا متخلفة قليلاً عن المنحنى.
يمكن لرؤساء تكنولوجيا المعلومات، بدعم من القيادة التنفيذية ومنصة أمنية تركز على الذكاء الاصطناعي، أن يأخذوا الأمور بأيديهم من خلال تنفيذ حوكمة الذكاء الاصطناعي السلسة وإمكانية ملاحظة استخدام أدوات الذكاء الاصطناعي، مع توفير مسارات تعليمية لدعم الكفاءة الأمنية المتزايدة بين المطورين. كل هذا ممكن جدا. ومع ذلك، يتعين عليهم اتخاذ خطوات الآن لضمان عدم تفوق الابتكار على الأمن السيبراني.




