الأمن السيبراني

شئنا أم أبينا، سوف يعمل الذكاء الاصطناعي على إحداث تحول في الاستراتيجية السيبرانية في عام 2026


”العودة في عام 2020“ يقول أنتوني يونغ، الرئيس التنفيذي في مزود خدمات الأمن المدارة (MSSP) Bridewell، “يتوقع أن الذكاء الاصطناعي [artificial intelligence] من شأنه أن يعيد تشكيل الاستراتيجيات الدفاعية التي بدت متفائلة. اليوم، يبدون أقل من قيمتها الحقيقية.”

على الرغم من أنه لا يزال من الصعب تحديد المدى الدقيق الذي يقود فيه الذكاء الاصطناعي الهجمات السيبرانية في العالم الحقيقي، ومدى خطورة هذه الهجمات في الواقع، فمن الصعب الجدال مع فكرة أن الذكاء الاصطناعي سوف يأتي لدعم الدفاعات السيبرانية.

إذا نظرنا إلى الوراء في عام 2025، أديتيا سوديقول نائب الرئيس لهندسة الأمن وإستراتيجية الذكاء الاصطناعي في شركة Aryaka: “لقد أدى إنشاء التعليمات البرمجية المدعومة بالذكاء الاصطناعي إلى تسريع عملية التطوير ولكنه أدى أيضًا إلى ظهور عيوب منطقية عندما قامت النماذج بملء الفجوات بناءً على تعليمات غير كاملة. وأصبحت الهجمات المدعومة بالذكاء الاصطناعي أكثر تخصيصًا وقابلة للتطوير، مما يجعل اكتشاف حملات التصيد الاحتيالي والاحتيال أكثر صعوبة”.

لذا، إذا كان عام 2025 هو العام الذي شهد وضع الأساس لهذه الأسس، فإن عام 2026 سيكون العام الذي يبدأ فيه صب الخرسانة بشكل جدي.

“الدرس [of 2025] ألم يكن أن الذكاء الاصطناعي غير آمن بطبيعته؛ بل إن الذكاء الاصطناعي يضخم أي ضوابط أو نقص في الضوابط يحيط به. … يتعلق أمن الذكاء الاصطناعي بالنظام البيئي بأكمله، بما في ذلك حاملي شهادات LLM [large language models]، جيناي [generative AI] يقول سود: “التطبيقات والخدمات ووكلاء الذكاء الاصطناعي والبنية التحتية الأساسية”.

نهج النضج

ريك فيرجسونيقول نائب رئيس الاستخبارات الأمنية في شركة Forescout، إن نهج صناعة الإنترنت تجاه الذكاء الاصطناعي سوف ينضج هذا العام.

“أتوقع أن أرى اعتماداً أكثر جدية وأقل إثارة للضجيج للذكاء الاصطناعي على الجانب الدفاعي: ربط الإشارات الضعيفة عبر تكنولوجيا المعلومات والتكنولوجيا التشغيلية [operational technology]والسحابة والهوية، ورسم الخرائط وتحديد أولويات الأصول والتعرضات بشكل مستمر، وتقليل العبء المعرفي على المحللين من خلال أتمتة عملية الفرز.

الذكاء الاصطناعي لا يقتصر على تسريع الاستجابة فحسب؛ تم إعداده لإعادة تعريف كيفية تحسين مهارات المتخصصين في مجال الأمن بشكل كامل، وكيفية نشرهم، وفي النهاية كيفية مساءلتهم

هاريس بيلارينوس، هاك ذا بوكس

ويضيف، مع ذلك، أن هذا لا يعني بالضرورة أن المحللين السيبرانيين العاطلين عن العمل يقفون في زوايا الشوارع ويحملون لافتات مكتوب عليها “هل سينجح الفريق الأحمر من أجل الغذاء”.

يقول فيرجسون: “إذا تم ذلك بشكل صحيح، فإن الأمر لا يتعلق باستبدال الأشخاص، بل يتعلق بمنحهم مساحة للتفكير والتعمق في الأشياء الأكثر فائدة”.

هاريس بيلارينوسيضيف المؤسس المشارك والرئيس التنفيذي لشركة Hack The Box: “الذكاء الاصطناعي لا يقتصر على تسريع الاستجابة فحسب؛ بل إنه مصمم لإعادة تعريف كيفية تحسين مهارات المتخصصين في مجال الأمن، ونشرهم، وفي النهاية كيفية مساءلتهم.

“إن الصناعة تدخل مرحلة تتحول فيها المهارات من الاكتشاف إلى الحكم إلى تعلم كيفية التعلم. ولن تكون المؤسسات التي تنجح هي تلك التي تقوم بالأتمتة بشكل أكبر، بل تلك التي تعيد تصميم نماذج القوى العاملة واتخاذ القرارات حول الأنظمة الذكية.”

بالنسبة لبيلارينو، ستركز نماذج القوى العاملة الجديدة هذه على إثبات وجود فريق هجين بين الإنسان والذكاء الاصطناعي. ويقترح أن المتخصصين في مجال الأمن السيبراني في المستقبل لن يكونوا متخصصين في التكنولوجيا، بل مدققين ومفكرين معارضين ومدققين سلوكيين.

ويقول: “إن ممارسي الأمن السيبراني الأكثر قيمة هم أولئك الذين يمكنهم اختبار سلوك الذكاء الاصطناعي في ظل ظروف واقعية، مما يضمن عدم تجاوز سرعة الآلة الحكم البشري”.

ل الرئيس التنفيذي لشركة Bugcrowd ديف جيرييعد نشر اعتماد المؤسسات للذكاء الاصطناعي سببًا لإبقاء المزيد من البشر على اطلاع.

“حركة المرور إلى قفزت مواقع الذكاء الاصطناعي التوليدية بنسبة 50% [between February 2024 and January 2025]، بينما استخدم 68% من الموظفين أدوات مجانية واعترف 57% منهم بلصق بيانات حساسة فيها. ومع هذا، من المهم أن نتذكر أن عمليات الاستغلال والمعلومات الخاطئة التي يولدها الذكاء الاصطناعي موجودة بالفعل”.

“يحتاج مجتمع الأمان إلى التركيز على تقنيات معالجة النماذج مثل الحقن السريع واختبار أنظمة الذكاء الاصطناعي هذه بشكل استباقي من خلال أعين المهاجمين. ويظل الاختبار الذي يقوده الحشود أحد أقوى دفاعاتنا، حتى عبر نواقل الهجوم الجديدة والمتطورة. يمكن للباحثين البشريين المتنوعين اكتشاف ما يفوته الآخرون.”

التحول الدفاعي

وفي الوقت نفسه، يركز Aryaka’s Sood على التحولات التقنية الأساسية التي تقود الدور المتغير لمتخصصي الأمن.

ويرى أنه مع زيادة اعتماد المؤسسات على الذكاء الاصطناعي – وخاصة الذكاء الاصطناعي الذي يقدم في شكل وكلاء – ستشهد فرق الأمن تحول أولوياتها بعيدًا عن الاستجابة للعيوب وإصلاحها والمشكلات الأخرى، إلى التحكم في مسارات صنع القرار داخل المؤسسة.

لا يقتصر مستقبل الأمن السيبراني على تأمين الأنظمة فحسب، بل يتعلق أيضًا بتأمين المنطق والهوية والاستقلالية التي تحركها

أديتيا سود، أرياكا

ويقول إن هذا سيقدم عددًا من الاستراتيجيات الدفاعية “الجديدة”. أولاً، سنرى تشكيل فرق الأمن طبقات الحوكمة حول سير عمل وكيل الذكاء الاصطناعي لمصادقة أي إجراء آلي والترخيص به ومراقبته – وربما عكسه.

يقول سود: “سيتوسع التركيز من حماية البيانات إلى سلوك الحراسة”.

ستحتاج الفرق السيبرانية أيضًا إلى معالجة مخاطر انتشار البيانات الصامتة، وإنشاء مجموعات بيانات الظل ومسارات الوصول غير المقصودة، حيث يقوم الوكلاء وأنظمة الذكاء الاصطناعي الأخرى بنقل البيانات الحساسة وتحويلها وتكرارها. سيكون التتبع القوي لنسب البيانات وحتى ضوابط الوصول الأكثر صرامة أمرًا ضروريًا. وكما تطورت تحليلات سلوك المستخدم ونضجت بالنسبة للحسابات البشرية، فسوف تحتاج إلى القيام بذلك مرة أخرى لتحديد السلوكيات المتوقعة والمسموح بها للذكاء الاصطناعي.

ستحتاج الاستراتيجيات الدفاعية في عام 2026 أيضًا إلى التعديل تغيير مناظر الثقة. تتطلب مؤسسة الذكاء الاصطناعي التحقق من الثقة عبر جميع الطبقات، لذلك يقول سود إن فرق الأمان يجب أن تتطلع إلى بنيات منخفضة الثقة حيث تخضع هويات الذكاء الاصطناعي ومخرجاته وقراراته الآلية للتدقيق والتحقق المستمر.

فيما يتعلق بالهوية، إدارة دورة حياة أقوى لـ هويات غير بشرية ويجب أيضًا إعطاء الأولوية (للمؤسسات الصحية الوطنية). و الثقة صفر باعتبارها ولاية الامتثال سوف تصبح أيضا ذات أهمية متزايدة.

وأخيرا، يقول سود، بما أن الهجمات السيبرانية ستستمر في استغلال الأدوات المشروعة في عام 2026، فستكون هناك حاجة إلى تعزيز الكشف القائم على النية، مع استدعاء الأنظمة لتحليل “سبب” حدوث الإجراءات، بدلا من مجرد إثبات حدوثها.

ويقول: “إذا علمنا عام 2025 أن الثقة يمكن استخدامها كسلاح، فإن عام 2026 سيعلمنا كيفية إعادة بناء الثقة بطريقة أكثر أمانًا وتعمدًا. إن مستقبل الأمن السيبراني لا يقتصر على تأمين الأنظمة فحسب، بل يتعلق أيضًا بتأمين المنطق والهوية والاستقلالية التي تحركها”.

كيفية شراء الذكاء الاصطناعي بسلامة وأمان

وفي عام 2026، سيطرح المشترون المتمرسون في مجال الذكاء الاصطناعي أيضًا أسئلة صعبة بشكل متزايد على موردي تكنولوجيا المعلومات لديهم، هكذا يقول إيلي هيرست، المدير التجاري في Advent IM.

يقول هيرست إن مجرد نسخ ولصق بعض النصوص النموذجية حول “استخدام الذكاء الاصطناعي بشكل مسؤول” في مجموعة الشرائح ربما كان قد تم طرحه قبل بضع سنوات، ولكن في عام 2026، سيتم اصطحاب مندوب المبيعات إلى موقف السيارات إذا تجرأ على تجربة ذلك.

يقول هيرست: “إن المشترين من المؤسسات، لا سيما في الحكومة والدفاع والبنية التحتية الوطنية الحيوية، يستخدمون الآن الذكاء الاصطناعي بكثافة. وهم يفهمون لغة المخاطر. وهم يقيمون روابط بين الذكاء الاصطناعي وحماية البيانات والمرونة التشغيلية والتعرض لسلسلة التوريد”.

في عام 2026، لن يكفي أن تتساءل فرق المشتريات عما إذا كان موردوها يستخدمون الذكاء الاصطناعي أم لا، بل بالأحرى كيف يحكمونهاتشرح.

طوال عام 2025، كما يقول هيرست، أصبحت لغة طلبات العروض والدعوات لتقديم العطاءات حول الذكاء الاصطناعي أكثر صرامة بشكل كبير، مع تزايد تساؤلات المشترين حول قضايا مثل سيادة البيانات، والرقابة البشرية، والمساءلة النموذجية، والامتثال لحماية البيانات والأمن وتنظيم الملكية الفكرية.

يأتي هذا التغيير بفضل الاعتراف بأن الذكاء الاصطناعي قد تم استخدامه إلى حد كبير على أساس مخصص، وأن معظم قادة تكنولوجيا المعلومات غير قادرين على القول على وجه اليقين أنهم يعرفون بالضبط ما كان يحدث تحت مراقبتهم. كل هذا يؤدي إلى ضخمة الحوكمة والمخاطر والامتثال (جي آر سي) الصداع.

لكن الخبر السار، كما يقول هيرست، هو أنه يمكن تغيير هذا الوضع. إن حوكمة الذكاء الاصطناعي، إذا تم تنفيذها بشكل صحيح، لا تتعلق بإبطاء الابتكار أو حظره، بل تتعلق بدمجه في ممارسة مركز الخليج للأبحاث التنظيمية بحيث يمكن شرح استخدامه وتوسيع نطاقه والدفاع عنه بشكل حاسم.

يجب على المشترين التفكير في طرح أسئلة حول مكان استخدام الذكاء الاصطناعي في خدمات الموردين، وما هي مسارات العمل التي تمس البيانات الحساسة، وما هي نماذج أو منصات الذكاء الاصطناعي التابعة لجهات خارجية المستخدمة، وما هي الرقابة التي يمارسها البشر. ينصح هيرست المشترين أيضًا بالبحث عن الموردين المتوافقين معهم آيزو إيك 42001، وهو معيار جديد لإدارة دورة حياة الذكاء الاصطناعي، بما في ذلك الإنترنت.

وفي النهاية، تقول، إذا كان المورد المحتمل مستعدًا بشكل كافٍ، فيجب أن يكون قادرًا على تقديم قصة واضحة حول كيفية إدارة الذكاء الاصطناعي كجزء من إطار الأمن الأوسع ومركز الخليج للأبحاث.

الفائزون والخاسرون

لم يمر على العام الجديد سوى أسبوع واحد، والقصة الكاملة لعام 2026 هي بالطبع، لم يتم كتابتها بعد. مما لا شك فيه، سيكون عامًا مضطربًا آخر لعالم الأمن السيبراني، لكن بريدويل يونج يقول إنه حتى لو لم يكن عام 2026 بالضرورة هو العام الأكثر كارثية بالنسبة للأمن، فقد أوصلنا الذكاء الاصطناعي إلى حافة الهاوية وما يتكشف بعد ذلك يمكن أن يجعل الأشهر الـ 12 المقبلة مؤثرة للغاية بالفعل.

ويخلص يونج إلى أن “الاختيارات التي تتخذها المنظمات الآن، في استعادة الاستثمار، وإعادة بناء المهارات السيبرانية، وإدارة الذكاء الاصطناعي بشكل مسؤول، ستحدد ما إذا كان المنحنى سينحني نحو المرونة أو المزيد من الهشاشة”.



Source link

زر الذهاب إلى الأعلى