ما الذي يحققه الذكاء الاصطناعي بشكل صحيح في مجال الأمن السيبراني؛ ما يمكن إصلاحه

يمكن أن يكون الذكاء الاصطناعي درعًا وسلاحًا. يتم تكليف CISOs باستخدام التكنولوجيا للدفاع عن مؤسساتهم من خلال بناء أدوات الذكاء الاصطناعي الداخلية، والاستفادة من قدرات الذكاء الاصطناعي للبائعين، وإيجاد حلول جديدة في السوق. وبينما تقوم الجهات الفاعلة في مجال التهديد بتوسيع خنادقها الأمنية، فإنها تجد طرقًا لاستخدام الذكاء الاصطناعي لتجاوز تلك الدفاعات. تتزايد الهجمات التي يغذيها الذكاء الاصطناعي من حيث الحجم التطور.
الشعار – “تبني الذكاء الاصطناعي أو تتخلف عن الركب وتصبح عرضة للهجوم” – تتبناه الصناعة على نطاق واسع. وغالبًا ما يقترن ذلك بوفرة من الوعود التسويقية لمنح كبار مسؤولي أمن المعلومات ومؤسساتهم ما يحتاجون إليه للبقاء في الطليعة. بينما يتنقل قادة الأمن السيبراني في دورة الضجيج، فمن الواضح ذلك الذكاء الاصطناعي التوليدي (GenAI) يسلم في بعض النواحي ويقصر في البعض الآخر.
تحدثت InformationWeek مع أربعة خبراء في مجال الأمن السيبراني لقياس كيفية أداء التكنولوجيا وأين يريد المستخدمون تحسينها.
حالات الاستخدام الفعال للذكاء الاصطناعي في الأمن السيبراني
يحظى الذكاء الاصطناعي بالكثير من الاهتمام كأداة برمجة، وتستفيد منه فرق الأمن السيبراني بهذه الصفة.
قال كارل كوبالسكي، المدير ونائب رئيس أمن المعلومات في John Deere: “يستخدم المهندسون التابعون لي أشياء مثل GitHub Copilot لبناء البرنامج الذي نعمل فيه داخل مجموعاتنا وعبر مجموعاتنا”.
يستخدم صائدو التهديدات أيضًا الذكاء الاصطناعي لزيادة قدراتهم. على سبيل المثال، يمكن إطلاق أدوات الذكاء الاصطناعي للعثور على الحالات الشاذة التي تشبه “الإبرة في كومة القش” والتي قد لا تلحظها العين البشرية.
وقالت كيري بيرلسون، المحاضر الأول وعالم الأبحاث الرئيسي في كلية سلون للإدارة بمعهد ماساتشوستس للتكنولوجيا: “لا يهم إذا كان النص باللون الأبيض أو الأسود، فهو يمكنه رؤيته. لن نرى أبيض على أبيض أو أسود على أسود”. تحاول بعض الجهات الفاعلة السيئة إخفاء التعليمات البرمجية الضارة عن طريق تعيين لون النص ليتناسب مع الخلفية. وقال بيرلسون: “هناك مثال على كيفية قدرة التكنولوجيا على المساعدة في العثور على برامج ضارة مزروعة في مستند أو رسالة بريد إلكتروني تصيدية”.
يمكن أن يساعد الذكاء الاصطناعي صائدي التهديدات على التحرك بشكل أسرع والتعامل بشكل أفضل مع الحجم الهائل للتهديدات التي تواجهها المؤسسة. لدى شركة جون ديري، على سبيل المثال، مركز عمليات أمنية وكيل يساعد المحللين. ويمكن أن يوفر سياقًا للتذاكر ويقدم نظرة ثاقبة لما يجب على المحللين فعله بعد ذلك، على الرغم من أن العامل البشري هو الذي يقرر كيفية التصرف.
وقال كوبالسكي: “نحن قادرون على التقاط المزيد من الأشياء باستخدام الذكاء الاصطناعي بالإضافة إلى البشر”. “وهذا أمر ضروري أكثر فأكثر بينما نواصل التعامل مع تزايد مشهد التهديدات.”
في شركة برمجيات التحليلات FICO، حقق فريق الأمن السيبراني نجاحًا باستخدام الذكاء الاصطناعي لنمذجة التهديدات، وفقًا لـ CISO Ben Nelson. الفريق مسؤول عن ضمان سلامة وسلامة البرامج التي يقدمها للعملاء، وكجزء من عملية التصميم، يبحث مهندسو الأمن عن العيوب المحتملة.
وقال: “ما تمكنا من القيام به هو أخذ سجلنا التاريخي لجميع نماذج التهديد التي تم إنتاجها وتدريب النماذج عليها داخليًا”.
ولا يزال مهندس الأمن البشري جزءًا من عملية نمذجة التهديدات، لكن الذكاء الاصطناعي قلل من العمالة البشرية بنحو 80%، وفقًا لنيلسون. إن نمذجة التهديدات الأسرع تعني دورة تطوير أسرع.
يستخدم الفريق الأحمر في FICO أيضًا أدوات الذكاء الاصطناعي لإنشاء بنية تحتية مخصصة للاختبار. وأوضح نيلسون: “لقد تبنوا نموذجًا توليديًا للذكاء الاصطناعي ينتج بالفعل البنية التحتية كمقتطفات من التعليمات البرمجية التي تساعدهم على إنتاج تلك البيئات المخصصة بسرعة أكبر حتى يتمكنوا من إجراء اختبارات سريعة”. “لقد كان هذا فوزًا كبيرًا آخر لنا على جبهة الذكاء الاصطناعي التوليدي.”
يستخدم فريق الأمن السيبراني في FICO أيضًا GenAI لاكتشاف أنماط الهجوم في بيانات السجل التاريخية الخاصة به. ثم يقومون بربط هذه النتائج ببيانات الصناعة لفهم تكلفة الحدث الأمني لو لم يتم منعه.
وقال نيلسون: “إنها أداة عمل مثيرة للاهتمام في هذا الصدد لأنها تساعدنا على العودة وقياس تكلفة الأشياء التي كان من الممكن أن تحدث لمساعدتنا في تبرير النفقات في الفضاء الإلكتروني”.
حيث يجب أن يتحسن الذكاء الاصطناعي من أجل الأمن السيبراني
نظرًا لأن CISOs يدمجون أدوات الذكاء الاصطناعي في استراتيجياتهم، يصبح من الأسهل تحديد المجالات التي يجب أن تتحسن فيها التكنولوجيا للوفاء بوعود البائعين واحتياجات المستخدمين.
ولا تزال البيانات تشكل تحديا أساسيا. يحتاج المستخدمون إلى حوكمة قوية للبيانات لتسخير أدوات الذكاء الاصطناعي وتحقيق النتائج المرجوة. من غير المرجح أن يؤدي طرح عدد كبير من الحلول في منطقة البيانات إلى نتائج فورية.
وقال كوبالسكي: “أعتقد أن السوق، في بعض الأحيان… الأشياء المبهجة تقدم هذا الوعد. أنا لا أشتريه”. “عليك أن تحل بشكل أساسي بعض التحديات التقليدية المرتبطة بجمع بياناتك معًا، وجلب حوكمة البيانات الصحيحة، وإعطاء البيانات الصحيحة، في الوقت المناسب، إلى الذكاء الاصطناعي المناسب، للحصول على النتائج التي تريد تحقيقها.”
من الممكن وضع تدابير جديدة للأمن السيبراني باستخدام الذكاء الاصطناعي، ولكن هناك حدود. أحد هذه الحدود هو ميل الذكاء الاصطناعي إلى عدم التعرف عندما يصطدم بالحائط. وقال كوبالسكي: “أحد التحديات المثيرة للاهتمام التي يواجهها الذكاء الاصطناعي التوليدي على وجه الخصوص في الوقت الحالي هو عدم القدرة على التعبير عندما لا يعرف”.
وقال نيلسون أيضًا إن الأدوات الإلكترونية التي تعمل بالذكاء الاصطناعي لم تقدم بعد نوع الوظائف التنبؤية التي يود رؤيتها.
وأوضح: “الشيء الوحيد الذي نتطلع إليه بالفعل من بائعي التكنولوجيا لدينا هو نظام يعتمد على الذكاء الاصطناعي أكثر تنبؤًا والذي سيأخذ البيانات التاريخية وينظر إلى التهديدات في الوقت الفعلي”. سيقوم هذا النظام بربط البيانات لمحاولة التنبؤ بالانتهاكات المحتملة. “لم أر الذكاء الاصطناعي يطبق على ذلك بشكل فعال حتى الآن.”
وأشار نيلسون أيضًا إلى أن ميزات بحث GenAI في أدوات الأمن السيبراني لا ترقى إلى مستوى الضجيج الذي ارتفع في العام ونصف العام الماضيين.
وقال: “لقد أضاف كل موردي تكنولوجيا الإنترنت لدينا تقريبًا ميزة بحث توليدية تعمل بالذكاء الاصطناعي إلى واجهة البحث”. “إنها مجرد أمر أساسي للغاية. ولا تضيف قيمة كبيرة لفريقي من منظور استقصائي.” وقال إنه لم يشهد تحسنًا كبيرًا منذ الاندفاع الأولي للتسويق.
تأتي قضية الثقة في المقدمة بشكل متزايد في مجال الذكاء الاصطناعي، سواء في سياق الأمن السيبراني أو غير ذلك. لينا سمارت هي رئيسة أمناء أمن المعلومات (CISO) السابقة وهي حاليًا سفيرة لدى AIUC-1، وهو اتحاد يعمل على تطوير معايير الذكاء الاصطناعي الوكيل. إنها تريد أن يكون البائعون مسؤولين عن المعايير بدلاً من تقديم وعود مبهمة للمستخدمين.
“إنه الوعد الذي يقول: “يمكنك أن تثق بنا، لا تقلق بشأن ذلك”.” وقال سمارت: “بياناتك آمنة معنا، لا تقلق بشأنها”. “أرني تدقيق إدارة مخاطر سلسلة التوريد الذي قمت به لتبين لي أين ستذهب بياناتي… أرني من يمكنه الوصول إليها. ماذا يفعلون بها؟”
وأشار نيلسون إلى أن الثقة هي “حقيبة مختلطة” بين البائعين. وقال: “يقوم الكثير منهم بتشغيل واجهات الذكاء الاصطناعي دون إخبارنا، وهو أمر مخيف جدًا للتفكير فيه لأننا لا نعرف كيف يستخدمون البيانات التي عهدناهم بها”. وقد يشمل ذلك تدريب نماذجهم أو خلط البيانات مع عملائهم الآخرين.
الطريق أمام CISOs
سيكون الذكاء الاصطناعي أولوية بالنسبة لرؤساء أقسام تكنولوجيا المعلومات مع استمرار تطور الحلول والتهديدات. من المرجح أن يرغب مدراء تكنولوجيا المعلومات في قضاء وقت أقل في إجراء التجارب لمعرفة ما ينجح وما لا ينجح. وقال كوبالسكي: “إن التقدم بشكل أسرع وأسرع في تقييماتنا هو أمر بدأنا القيام به بالفعل”.
قد يساعد تسريع الذكاء الاصطناعي المؤسسات على المراهنة على القدرات الأحدث التي تدخل السوق. يراقب كوبالسكي وفريقه الشركات الناشئة في هذا المجال. وقد خدمهم هذا النوع من التفكير المستقبلي بشكل جيد حتى الآن. وقال: “لقد انخرطنا في بعض القدرات الناشئة للكشف عن التزييف العميق على الأرجح منذ حوالي عامين، مع العلم أن التزييف العميق والخداع سيزداد انتشاره، وكان هذا رهانًا حققناه بشكل صحيح”.
على الرغم من أن الأدوات الجديدة ستظل مثيرة، إلا أن مسؤولي أمن المعلومات وفرقهم يحتاجون أيضًا إلى الاعتماد على المساءلة تجاه البائعين، بالإضافة إلى أدوات الذكاء الاصطناعي الداخلية التي يستخدمونها. تقوم شركة Smart في كثير من الأحيان بإرسال العروض المقدمة من البائعين وتطالب بإجابات حول كيفية استخدام البيانات، ومن لديه حق الوصول، وماذا يحدث للبيانات بعد انتهاء العقد. وقالت: “إذا لم يحصلوا على إجابات غريزية وإيجابية وفورية تمامًا لذلك، فستكون المكالمة قد انتهت”.
من بين جميع الموارد التي يمكن أن يجمعها نيلسون، يقف الأشخاص على رأس القائمة. وقال: “نظرًا لأننا لا نحصل على ما نحتاجه من البائعين لدينا، فسوف يتعين علينا القفز إلى بعض الابتكارات والهندسة داخل الشركة”.
وفي حين لا يمكن تجاهل الاستبدال المحتمل للبشر، إلا أن البشر يظلون ضروريين للاستخدام المسؤول للذكاء الاصطناعي في الأمن السيبراني. وقال بيرلسون: “أعتقد أنه في عام 2026، سنرى المديرين يحصلون على مزيد من السيطرة على بيئات الذكاء الاصطناعي التي يأملون في إدخالها إلى مؤسساتهم”.




