ما الذي يخبئه مهارات الأمن السيبراني في عام 2026؟

في عام 2026، سيتم تشكيل الأمن السيبراني بشكل أقل من خلال الأدوات الفردية وأكثر من خلال الأدوات الفردية كيف يحكم البشر الأنظمة المستقلة. الذكاء الاصطناعي لا يقتصر على تسريع الاستجابة فحسب؛ تم إعداده لإعادة تعريف كيفية تحسين مهارات المتخصصين في مجال الأمن بشكل كامل، وكيفية نشرهم، وفي النهاية كيفية مساءلتهم.
تدخل الصناعة مرحلة تتحول فيها المهارات من الاكتشاف إلى الحكم إلى تعلم كيفية التعلم. إن المؤسسات التي ستنجح لن تكون تلك التي تعتمد على الأتمتة بشكل أكبر، بل تلك التي تعيد تصميم نماذج القوى العاملة وعملية صنع القرار حول الأنظمة الذكية.
يجب إثبات قدرات الذكاء الاصطناعي
في عام 2026، ستقوم المؤسسات بنشر أنظمة مستقلة بشكل متزايد، وكلاء الذكاء الاصطناعي وسير العمل المعزز بالذكاء الاصطناعي لحماية البنية التحتية الخاصة بهم. ولا يتمثل التحدي في ما إذا كانت هذه الأنظمة قوية، بل في ما إذا كانت جديرة بالثقة. يجب التعامل مع كل نظام ذكاء اصطناعي على أنه غير مثبت حتى يتم التحقق من صحته في ظل ظروف عدائية يتم تحديثها باستمرار.
سيكون الذكاء الاصطناعي موجودًا في كل مكان، لكن الثقة لن تكون كذلك. معظم سير عمل مركز العمليات الأمنية (SOC). سوف تشمل مكونات مستقلة لكن مجالس الإدارة ستظل تبحث عن التحقق الرسمي من سلوك الذكاء الاصطناعي قبل الموافقة على استخدامها. ستواجه المؤسسات التي تنشر وكلاء لم يتم اختبارهم فئات جديدة من الحوادث الناجمة عن الأجهزة، حيث تعمل الأنظمة التي تعتمد على التحسين بطرق لا تتماشى مع السياسة أو الامتثال.
التحقق المستمر، وليس الاختبار لمرة واحدة
سيتطلب عملاء الذكاء الاصطناعي التحقق المستمر من صحة الخصومة، وليس الاختبار لمرة واحدة. النماذج التي تبدو آمنة اليوم قد لا تكون كذلك غدًا بسبب انحراف التحسين، أو تغيرات السياق، أو تقنيات المهاجم الجديدة. سيصبح اختبار التحمل المستمر ضد مجموعات البيانات العدائية مطلبًا تشغيليًا.
في هذه البيئة، لن يتم الحكم على قدرات الذكاء الاصطناعي بناءً على مطالبات البائعين، بل بناءً على بيانات حول كيفية أداء الأنظمة في سيناريوهات غير مكتوبة وعالية الدقة. ستواجه المؤسسات التي تعتمد على العروض التوضيحية بدلاً من هذه البيانات أعلى نسبة تعرض.
وسيتحول عبء الإثبات من أداء الذكاء الاصطناعي إلى مراقبة الذكاء الاصطناعي. ستتطلب اللوائح من المشغلين إثبات ليس فقط أن الذكاء الاصطناعي يعمل، بل أيضًا أن البشر يمكنهم التدخل والتصعيد والتجاوز عندما لا يعمل. ستصبح هذه الرقابة وقابلية الشرح وقابلية التدقيق من الكفاءات الأساسية للقوى العاملة، وهي جزء لا يتجزأ من معنى أن تكون جاهزًا للعمل.
إثبات فريق الذكاء الاصطناعي البشري
ستظهر نماذج جديدة للقوى العاملة، تتمحور حول إثبات وجود فريق هجين بين الإنسان والذكاء الاصطناعي. لن يكون محترف الأمن السيبراني لعام 2026 تقنيًا فحسب، بل سيكون أيضًا مدققًا ومفكرًا عدائيًا ومدققًا سلوكيًا لأنظمة الذكاء الاصطناعي. وهذا يعني أن ممارسي الأمن السيبراني الأكثر قيمة سيكونون أولئك الذين يمكنهم اختبار سلوك الذكاء الاصطناعي تحت ظروف واقعية، مما يضمن عدم تجاوز سرعة الآلة للحكم البشري.
إذا لم تتمكن المنظمة من اختبار عملاء الذكاء الاصطناعي لديها ضد تقنيات الهجوم الجديدة في غضون 12 إلى 24 ساعة من وقوع الحوادث الكبرى، فلا يمكنها أن تدعي الاستعداد بشكل موثوق. الذكاء الاصطناعي الذي لا يتعرض للهجمات الحديثة لن يكون من الممكن تمييزه عن الذكاء الاصطناعي غير الموثوق به.
سلامة الذكاء الاصطناعي تدخل في الاتجاه السائد
وأخيرًا، سوف تدخل مهارات السلامة الخاصة بالذكاء الاصطناعي في الاتجاه السائد. الأحمر كفريق من النماذجوسينتقل تصميم سيناريوهات اختبار الإجهاد والسلامة من الأدوار المتخصصة إلى متطلبات الوظيفة القياسية. سيحتاج كل فريق للأمن السيبراني إلى بعض الخبرة على الأقل في التحقق من صحة النماذج، تمامًا كما كانوا يحتاجون في السابق إلى محللي البرامج الضارة. وبهذه الطريقة، لن يتم تحديد مستقبل الأمن السيبراني من خلال سرعة الآلات فحسب، بل من خلال مرونة البشر الذين يشرفون عليها وقدرتهم على التكيف.
إعادة تعريف محترف الأمن السيبراني
سيظل التخصص الفني العميق مهمًا، لكنه لن يكون كافيًا. سيحتاج متخصصو الأمن إلى العمل عبر البنية التحتية السحابية والهوية وتسليم البرامج وحماية البيانات والمخاطر السلوكية للذكاء الاصطناعي.
سيصبح التفكير النقدي والتفكير العدائي والقدرة على تحسين المهارات بشكل مستمر جنبًا إلى جنب مع الأنظمة الذكية من الكفاءات الأساسية. وستكون القدرة الأكثر قيمة هي تعلم كيفية التعلم بسرعة الآلة، مع استمرار تقلص عمر المهارات التقنية.
وهذا يفرض ضغوطًا على مقدمي خدمات تحسين المهارات وأصحاب العمل للابتعاد عن نماذج شهادات التدريب الثابتة والاتجاه نحو التعلم المستمر القائم على السيناريوهات والذي يعكس ظروف العالم الحقيقي. الفرصة هنا هي مسارات وظيفية جديدة لأن المهنيين الذين يتقنون مراقبة الذكاء الاصطناعي والمرونة عبر المجالات سيكونون مطلوبين بشدة.
الجواب هو الإنسان
إن التحدي الحقيقي في عام 2026 ليس ما إذا كانت الآلات قادرة على ذلك، لأننا نعلم أنها كذلك بالفعل. والسؤال هو ما إذا كان بإمكان المنظمات والمعلمين والجهات التنظيمية تطوير المهارات البشرية والحكم بالوتيرة نفسها.
سوف يحدد الذكاء الاصطناعي سرعة العمليات السيبرانية، في حين تحدد القدرة البشرية ما إذا كان من الممكن الوثوق بهذه السرعة وتصبح ميزة تنافسية أم لا.
هاريس بيلارينوس هو المؤسس والرئيس التنفيذي لشركة هاك الصندوق.




