الأمن السيبراني

ما يحتاجه CISOs من الذكاء الاصطناعي في عام جديد من التهديدات السيبرانية


مع دخولنا عام آخر يتميز باعتماد الذكاء الاصطناعي، يواجه كبار مسؤولي أمن المعلومات المزيد من التهديدات السيبرانية وزيادة الطلب للدفاع عن مؤسساتهم. تحدثت InformationWeek مع خمسة من كبار مسؤولي تكنولوجيا المعلومات للتعرف على ما يتوقعونه من التكنولوجيا في عام 2026: كيف سيتم استخدامها في أيدي الجهات التهديدية، وقدراتها كأداة دفاعية، وما يريده قادة الأمن ويحتاجونه من التكنولوجيا حيث تصبح متأصلة بشكل متزايد في نسيج مجموعاتهم التكنولوجية.

مشهد التهديد

في عام 2025، استخدمت الجهات الفاعلة في مجال التهديد الذكاء الاصطناعي لصقل حملاتها وتوسيع نطاقها حجم الهجمات. أصبح من الصعب اكتشاف هجمات التصيد الاحتيالي؛ يزيل الذكاء الاصطناعي بسهولة السرد القديم للقواعد النحوية الضعيفة. ويجعل الذكاء الاصطناعي من السهل إلقاء إغراءات شخصية للغاية لمزيد من الضحايا.

قال روجر غرايمز، مستشار CISO في شركة التدريب على التوعية الأمنية KnowBe4: “في الوقت الحالي، نشهد حوالي 90٪ من أدوات التصيد الاحتيالي للهندسة الاجتماعية تحتوي على تقنية التزييف العميق للذكاء الاصطناعي المتاحة فيها”.

حتى الآن، نجح الذكاء الاصطناعي في شحذ التكتيكات القديمة. وهذا الاتجاه سوف يتصاعد مع مرور الوقت. ووصفت ويندي وايتمور، كبيرة مسؤولي الاستخبارات الأمنية في شركة الأمن السيبراني بالو ألتو نتوركس، معظم الهجمات التي يغذيها الذكاء الاصطناعي بأنها “تطورية وليست ثورية”، ولكن هذا يمكن أن يتغير مع تحرك الجهات الفاعلة في مجال التهديد عبر منحنيات التعلم الخاصة بها.

متعلق ب:مخاطر ذكية: خطة من 5 نقاط للنجاة من اختراق البيانات

الهجوم السيبراني الذي نفذته جهات فاعلة حكومية صينية مشتبه بها الأنثروبي المُتلاعب به تنبأ بمستقبل الهجمات السيبرانية: واسعة النطاق ومستقلة إلى حد كبير.

وقال غرايمز: “إن مستقبل الجرائم الإلكترونية هو روبوتات الذكاء الاصطناعي الخاصة بالأشرار ضد روبوتات الذكاء الاصطناعي الخاصة بالأخيار، وسوف تفوز أفضل الخوارزميات”. “هذا هو مستقبل الأمن السيبراني من الآن فصاعدا.”

ومع اقتراب ذلك المستقبل، سيبحث المتسللون عن طرق لاستخدام الذكاء الاصطناعي لتنفيذ الهجمات والبحث عن نقاط الضعف في أنظمة وأدوات الذكاء الاصطناعي التي تستخدمها المؤسسات.

قال جيل كنيسك، كبير مسؤولي أمن المعلومات في BlackLine، وهي منصة لإدارة العمليات المالية المستندة إلى السحابة: “الشيء الأكثر إثارة للقلق بالنسبة لكبير مسؤولي أمن المعلومات هو أن حاملي شهادة الماجستير في إدارة المعلومات سيكونون بمثابة مصائد مخترقي الشبكات. سيكون هذا هو المكان الذي سيرغب أي متسلل في مهاجمته لأنه هو المكان الذي توجد فيه جميع البيانات”.

توقع غرايمز أيضًا زيادة في عمليات الاختراق لـ بروتوكول السياق النموذجي (MCP)، وهو معيار Anthropic مفتوح المصدر الذي يمكّن أنظمة الذكاء الاصطناعي من التواصل مع الأنظمة الخارجية. يمكن للجهات الفاعلة في مجال التهديد الاستفادة من أساليب مثل الحقن الفوري لاستغلال خوادم MCP.

ومع حدوث المزيد من الهجمات واسعة النطاق التي يرتكبها الذكاء الاصطناعي، سيواجه مدراء تكنولوجيا المعلومات أسئلة حول الهوية، وفقًا لويتمور. وقالت: “لا أعتقد أن الصناعة بشكل جماعي لديها فهم جيد حتى الآن لمن المسؤول، في حين أن الهوية الاصطناعية هي التي خلقت هجومًا واسع النطاق وواسع النطاق”. يمكن أن تقع هذه المسؤولية على عاتق وحدة الأعمال التي قامت بنشرها، أو رئيس أمن المعلومات الذي وافق على استخدام الأدوات أو الفريق الفعلي الذي يستفيد منها.

متعلق ب:لقد حان الوقت لتجديد أمن تكنولوجيا المعلومات للتعامل مع الذكاء الاصطناعي

الذكاء الاصطناعي كأداة للدفاع السيبراني

بينما تعمل الجهات الفاعلة في مجال التهديد على تعزيز قدراتها في مجال الذكاء الاصطناعي، يجب على المدافعين أيضًا أن يفعلوا ذلك. في عام 2025، اكتشف مدراء تكنولوجيا المعلومات ما يمكن أن يفعله الذكاء الاصطناعي لاستراتيجيات الأمن السيبراني الخاصة بهم. أثبتت قدرة الذكاء الاصطناعي على التدقيق في جبال من البيانات وتمييز الأنماط أنها إحدى أهم فوائده لفرق الأمن السيبراني.

قال دون بيتشا، كبير مسؤولي أمن المعلومات في FNTS، وهي شركة خدمات سحابية وحاسبات مركزية مُدارة للصناعات الخاضعة للتنظيم: “على المستوى الداخلي لفريقي، كان ذلك بمثابة تغيير في قواعد اللعبة لأننا نرى أنه يمكن لمحللي التهديدات الآن أن يستغرقوا 10 دقائق للبحث عن شيء ما بدلاً من ساعة واحدة لفصل الأدوات”.

يمكن للذكاء الاصطناعي أن يجد الإبرة التي يضرب بها المثل في كومة قش التهديدات، سواء كانت إيجابية أو كاذبة، وتمكن المحللين من اتخاذ قرارات أسرع. يمكنه أتمتة الكثير من عمليات البحث والمراجعة التي كانت تمثل في السابق الكثير من العمل اليدوي الشاق للمحللين.

وبينما تغتنم فرق الأمن السيبراني هذه الفوائد، فإن الذكاء الاصطناعي كأداة للدفاع السيبراني لديه مجال كبير للنمو. قال كنيسيك: “نحن لا نرى… أمانًا للذكاء الاصطناعي مصممًا لهذا الغرض في معظم الأحيان. ما تراه هو أمان قديم مع بعض قدرات ووظائف الذكاء الاصطناعي”.

متعلق ب:Anthropic تحبط هجومًا إلكترونيًا على Claude Code: هذا هو سبب أهمية ذلك بالنسبة لمدراء تكنولوجيا المعلومات

مع بداية عام 2026، ستظهر المزيد من الحلول الأمنية للذكاء الاصطناعي، لا سيما في مجال الذكاء الاصطناعي الوكيل. وقال غرايمز إنه يتوقع أن تكون روبوتات الترقيع أحد أنواع عوامل الذكاء الاصطناعي التي تمنح مزيدًا من الاستقلالية داخل المؤسسات.

وقال: “لن تكون قادرًا على محاربة الذكاء الاصطناعي الذي يحاول تعريضك للخطر من خلال البرامج التقليدية. ستحتاج إلى روبوت التصحيح”.

يعتبر متبنو الذكاء الاصطناعي عبارة “الإنسان في الحلقة” بمثابة المعيار الذهبي للاستخدام المسؤول، ولكن مع انطلاقة الذكاء الاصطناعي الوكيل، سيتعين على CISOs وفرقهم التعامل مع أسئلة حول مدى الاستقلالية الممنوحة لهؤلاء الوكلاء. ماذا يحدث عندما تكون المشاركة البشرية أقل فأقل؟

وقال غرايمز: “أعتقد أن بعض الناس سيقولون: “أوه، هذا رائع. سأصدق كل ما قاله البائع. سأمنحه الاستقلالية الكاملة”. وقد يؤدي ذلك إلى انقطاع العمليات.

بالإضافة إلى ذلك، كما أصبح وكلاء الذكاء الاصطناعي أكثر استقلالية، سيكونون أهدافًا متكررة للجهات الخبيثة. وقال غرايمز: “من أجل حماية الإنسان، سيتعين عليك حماية عملاء الذكاء الاصطناعي الذين يستخدمهم الإنسان”.

قائمة أمنيات الذكاء الاصطناعي الخاصة بـ CISO

على الرغم من كل التوقعات المحمومة حول الذكاء الاصطناعي، لا تزال هناك شكوك بشأن المستقبل. يجب على CISOs مواكبة التكنولوجيا المتغيرة بسرعة. وبينما يتقدمون للأمام، ما الذي يحتاجونه ويريدونه من التكنولوجيا؟

  • الكفاءات التشغيلية. لقد حان الوقت لكي يحقق الذكاء الاصطناعي إنجازاته. يريد CISOs وCIOs أدوات تعتمد على الذكاء الاصطناعي ولها تأثير قابل للقياس. “بينما نمضي قدمًا، سيتوقعون رؤية المزيد والمزيد من القدرات المصممة لهذا الغرض [where] قال كنيسيك: “يمكنك حقًا قياس الكفاءات التشغيلية بسهولة”. وينطبق هذا على الذكاء الاصطناعي عبر وظائف المؤسسة.

  • مراجعات أمنية أسرع. قد تتطلع العديد من الشركات إلى طرح العديد من التقنيات الجديدة في عام 2026، وهو احتمال صعب من منظور أمني. لم يظهر بعد حل ناجح لأتمتة مراجعات الأمان الأساسية. وقال ويتمور: “على المستوى التكتيكي، هذا شيء يحتاج مدراء تكنولوجيا المعلومات ومديرو تكنولوجيا المعلومات إلى اكتشافه حقًا”. “هذا كل شيء بدءًا من جزء العملية وحتى التكنولوجيا الفعلية التي ستساعدهم على تسريع ذلك.”

  • يثق. سيطرح العملاء على بائعيهم أسئلة أكثر صرامة من أجل الحفاظ على الثقة. وتتردد الشركات في كشف النقاب عن نماذج الذكاء الاصطناعي الخاصة بها، خشية أن تتخلى عن الميزة التنافسية، ولكن هذا لا يترك للعملاء في كثير من الأحيان سوى تأكيدات قليلة بدلاً من إجابات ملموسة.

    قال كريس هندرسون، كبير مسؤولي أمن المعلومات في شركة Huntress للأمن السيبراني: “أدرك أن هناك الكثير من حقوق الملكية الفكرية المعنية، والطريقة التي يتم بها تدريب هذه النماذج… ولكن من الصعب جدًا استيعابها والحصول على فهم كامل للغاية وضمان أن ما تم تقديمه في محادثاتنا، حتى سياسات الخصوصية، وما إلى ذلك، يحدث بالفعل خلف الكواليس”.

  • حكم أفضل. ستكون حوكمة الذكاء الاصطناعي في مقدمة اهتمامات مدراء تكنولوجيا المعلومات في العام الجديد. وقال بيتشا: “هذا هو ما نكافح فيه اليوم لأنه لا يوجد سوى منتجين أو ثلاثة منتجات توفر حقًا الحوكمة في المؤسسة للذكاء الاصطناعي الخاص بك”.

    وأضاف أن هناك الكثير من الأطر المتاحة للاستخدام المسؤول للذكاء الاصطناعي، ولكن مجرد التحقق من العناصر الموجودة في القائمة ليس كافيًا.

    “لا يمكنك الاعتماد على إطار عمل NIST الذي ينص على أن الذكاء الاصطناعي يجب أن يقوم بهذه الأشياء. قائمة المراجعة هذه ضرورية، ولكن بعد ذلك كيف يمكنك وضع أداة تشغيلية تتحقق من صحة البيانات التي تم تدريب الذكاء الاصطناعي عليها [on]”؟” سأل بيتشا.

    سيحتاج مدراء تكنولوجيا المعلومات إلى طرق لإظهار أن أدوات الذكاء الاصطناعي التي صممتها فرقهم داخليًا والأدوات التي يجلبونها من أطراف ثالثة آمنة وتستخدم بشكل مسؤول، سواء من خلال عمليات التدقيق المستمرة أو نوع ما من الشهادات الخارجية.

  • المزيد من نمذجة التهديد. وقال غرايمز إنه يريد رؤية المزيد من نماذج التهديد للذكاء الاصطناعي، خاصة مع تزايد استخدام الذكاء الاصطناعي الوكيل. أين تكمن نقاط الضعف؟ ما الذي تم عمله للتخفيف منهم؟ وأكد غرايمز أن “البائعين الذين نموذج التهديد سيكون لديهم أدوات أكثر أمانًا وأدوات أكثر جدارة بالثقة”.

  • مزيد من الفروق الدقيقة. تتفوق أنظمة الذكاء الاصطناعي في جمع المعلومات وتبسيط القرارات للبشر، لكنها لم تصل بعد إلى مكان يمكنها من خلاله اتخاذ القرار البشري.

    “في نهاية المطاف، لا يزال الأمر غير دقيق مثل الإنسان في تحديد ما إذا كان يجب إيقاظ شخص ما في الساعة الثانية صباحًا بسبب حدث قد حدث؟” قال هندرسون. وأضاف أنه يود أن يرى أدوات الذكاء الاصطناعي تتجاوز مجرد تقديم استجابات ثنائية إلى تقديم إجابات أكثر دقة تتضمن مدى تأكدهم من اتخاذ قرار أو توصية.

  • حلول السوق المتوسطة. وقال بيتشا إنه يأمل أن يجعل الذكاء الاصطناعي الأمن في متناول الشركات الصغيرة والمتوسطة الحجم. لا تتمتع هذه الشركات بالميزانيات الأمنية التي تمتلكها الشركات الكبيرة، لكنها تظل جزءًا من سلسلة التوريد. وقال: “الخطر الأكبر الذي نواجهه اليوم هو أن الشركات الصغيرة والمتوسطة لا تحظى بخدمة مجتمع الأمن بشكل جيد. ليس لديهم الموارد. ليس لديهم المعرفة، ولكن الذكاء الاصطناعي يمكن أن يكون الحل المؤقت لذلك”.

وبينما يحتدم الجدل حول الذكاء الاصطناعي ومستقبل الوظائف، يبدو أن هناك بعض التوقعات بين كبار مسؤولي أمن المعلومات بأن الذكاء الاصطناعي سيكون أداة لتعزيز قدرات فرق الأمن السيبراني البشرية بدلاً من أن تكون تقنية تحل محلها بالكامل.

وقال هندرسون: “أعتقد أنهم بحاجة إلى تمديدات لفريقهم بدلاً من استبدال فرقهم”. “إذا نظرت إلى الذكاء الاصطناعي باعتباره شيئًا يمكن أن يمكّن فريقك من مواصلة التوسع دون إضافة هيئات إضافية بدلاً من استبدال الهيئات، فسيكون هذا هو الطريق إلى النجاح.”





Source link

زر الذهاب إلى الأعلى