من الثقة إلى الاضطراب: طريق الإنترنت إلى الأمام في عام 2026

في عام 2025، أصبحت الثقة هي السطح الأكثر استغلالًا في الحوسبة الحديثة. لعقود من الزمن، الأمن السيبراني ركزت على نقاط الضعف والأخطاء البرمجية والأنظمة التي تم تكوينها بشكل خاطئ وضعف حماية الشبكة. كانت الأحداث الأخيرة في مجال الأمن السيبراني بمثابة نقطة تحول واضحة، حيث لم يعد المهاجمون بحاجة إلى الاعتماد فقط على التقنيات التقليدية.
لم يكن هذا التحول دقيقا. وبدلاً من ذلك، ظهر ذلك في كل حادث كبير تقريبًا: خروقات سلسلة التوريد التي تستفيد من المنصات الموثوقة، وإساءة استخدام بيانات الاعتماد عبر أنظمة الهوية الفيدرالية، وإساءة استخدام أدوات الوصول عن بعد المشروعة والخدمات السحابية، وتجاوز المحتوى الناتج عن الذكاء الاصطناعي آليات الكشف التقليدية. وبعبارة أخرى، حتى الأنظمة جيدة التكوين يمكن إساءة استخدامها إذا افترض المدافعون أن الثقة تعني الأمان.
يعد تسليط الضوء على الدروس المستفادة في عام 2025 أمرًا ضروريًا لمحترفي الأمن السيبراني لفهم مشهد التهديدات المتطور وتكييف الاستراتيجيات وفقًا لذلك.
المحيط ليس له أهمية – الثقة هي ناقل التهديد
اكتشفت المؤسسات أن المهاجمين يستغلون الافتراضات بنفس فعالية نقاط الضعف عن طريق استعارة إشارات الثقة التي تجاهلتها فرق الأمان. لقد تم دمجها في البيئات باستخدام أدوات المطورين القياسية والخدمات المستندة إلى السحابة والثنائيات الموقعة التي لم يتم تصميمها مطلقًا باستخدام أدوات قياس عن بعد أو ضوابط سلوكية قوية.
وكان النمو السريع للذكاء الاصطناعي في سير عمل المؤسسات عاملاً مساهماً أيضًا. بدءًا من إنشاء التعليمات البرمجية وأتمتة العمليات وحتى تحليلات الأعمال ودعم العملاء، بدأت أنظمة الذكاء الاصطناعي في اتخاذ القرارات التي كان يتخذها الأشخاص سابقًا. وقد أدى هذا إلى ظهور فئة جديدة من المخاطر: الأتمتة التي ترث الثقة دون التحقق من صحة. النتيجة؟ فئة جديدة من الحوادث التي لم تكن فيها الهجمات عالية الصوت أو ضارة بشكل واضح، ولكن تم اعتمادها على نشاط مشروع، مما أجبر المدافعين على إعادة التفكير في الإشارات المهمة، وما هو القياس عن بعد المفقود، وما هي السلوكيات التي يجب اعتبارها حساسة حتى لو كانت ناشئة عن مسارات موثوقة.
واحتلت الهوية والاستقلالية مركز الصدارة
تحدد الهوية أيضًا سطح الهجوم الحديث بصرف النظر عن الثغرات الأمنية. مع زيادة عدد الخدمات والتطبيقات ووكلاء وأجهزة الذكاء الاصطناعي التي تعمل بشكل مستقل، يستهدف المهاجمون بشكل متزايد أنظمة الهوية وعلاقات الثقة بين المكونات. بمجرد حصول المهاجم على هوية موثوقة، يمكنه التحرك بأقل قدر من الاحتكاك، مما يوسع معنى تصعيد الامتيازات. لم يكن التصعيد يتعلق فقط بالحصول على أذونات أعلى للنظام؛ كان الأمر يتعلق أيضًا بالاستفادة من الهوية التي يثق بها الآخرون بشكل طبيعي. وبالنظر إلى الهجمات التي تستهدف الهويات، أدرك المدافعون أن عدم الثقة بشكل افتراضي يجب أن ينطبق الآن ليس فقط على حركة مرور الشبكة ولكن أيضًا على سير العمل والأتمتة والقرارات التي تتخذها الأنظمة المستقلة.
الذكاء الاصطناعي كأداة قوية ونقطة ضغط
تصرفت منظمة العفو الدولية مسرع دفاعي وحدود جديدة للمخاطر. أدى إنشاء التعليمات البرمجية المدعومة بالذكاء الاصطناعي إلى تسريع عملية التطوير، ولكنه أدى أيضًا إلى ظهور عيوب منطقية عندما قامت النماذج بملء الفجوات بناءً على تعليمات غير كاملة. أصبحت الهجمات المدعومة بالذكاء الاصطناعي أكثر تخصيصًا وقابلية للتوسع، مما يجعل اكتشاف حملات التصيد الاحتيالي والاحتيال أكثر صعوبة. ومع ذلك، لم يكن الدرس المستفاد هو أن الذكاء الاصطناعي غير آمن بطبيعته؛ كان الأمر هو أن الذكاء الاصطناعي يضخم أي ضوابط (أو نقص في الضوابط) تحيط به. بدون التحقق من الصحة، يمكن أن يكون المحتوى الناتج عن الذكاء الاصطناعي مضللاً. وبدون حواجز الحماية، يمكن لعملاء الذكاء الاصطناعي اتخاذ قرارات محفوفة بالمخاطر. وبدون إمكانية الملاحظة، يمكن أن تنجرف الأتمتة التي تعتمد على الذكاء الاصطناعي إلى سلوك غير مقصود. وهذا يسلط الضوء على أن أمان الذكاء الاصطناعي يتعلق أكثر بالنظام البيئي بأكمله، بما في ذلك LLMs وتطبيقات وخدمات GenAI ووكلاء الذكاء الاصطناعي والبنية التحتية الأساسية.
التحول نحو الحكم الذاتي
مع زيادة اعتماد المؤسسات على عوامل الذكاء الاصطناعي وأطر التشغيل الآلي وأنظمة الهوية السحابية الأصلية، سينتقل الأمن من تصحيح العيوب إلى التحكم في مسارات اتخاذ القرار. سنرى الاستراتيجيات الدفاعية التالية قيد التنفيذ:
- أمن طائرة التحكم بالذكاء الاصطناعي: ستقوم فرق الأمان بإنشاء طبقات حوكمة حول سير عمل وكيل الذكاء الاصطناعي، مما يضمن مصادقة كل إجراء آلي وترخيصه ومراقبته وإمكانية عكسه. سوف يتوسع التركيز من حماية البيانات إلى سلوك الحراسة.
- حماية انجراف البيانات: سوف يقوم وكلاء الذكاء الاصطناعي والأنظمة الآلية بشكل متزايد بنقل البيانات الحساسة وتحويلها وتكرارها، مما يخلق خطر انتشار البيانات الصامتة ومجموعات بيانات الظل ومسارات الوصول غير المقصودة. بدون تتبع قوي لسلالة البيانات وضوابط صارمة للوصول، يمكن أن تنجرف المعلومات الحساسة إلى ما هو أبعد من الحدود المعتمدة، مما يؤدي إلى مخاطر جديدة تتعلق بالخصوصية والامتثال والتعرض.
- التحقق من الثقة عبر جميع الطبقات: نتوقع اعتماداً واسع النطاق لـ “البنى ذات الثقة المنخفضة”، حيث يتم التحقق من صحة الهويات ومخرجات الذكاء الاصطناعي والقرارات الآلية بشكل مستمر بدلاً من قبولها ضمناً.
- الثقة المعدومة كتفويض للامتثال: ستصبح ZTA متطلبًا تنظيميًا للقطاعات الحيوية، حيث يواجه المديرون التنفيذيون مساءلة شخصية متزايدة عن الانتهاكات الكبيرة المرتبطة بالوضع الأمني السيئ.
- الخطوط الأساسية السلوكية للذكاء الاصطناعي والأتمتة: تمامًا مثل تحليلات سلوك المستخدم التي تم تطويرها للحسابات البشرية، ستتطور التحليلات لإنشاء أنماط متوقعة للروبوتات والخدمات والوكلاء المستقلين.
- هوية التصميم الآمن: ستعطي منصات الهوية الأولوية للإدارة القوية لدورة الحياة للهويات غير البشرية، مما يحد من الضرر عندما تتعطل الأتمتة أو يتم اختطافها.
- الكشف على أساس النية: وبما أن العديد من الهجمات ستستمر في استغلال الأدوات المشروعة، فإن أنظمة الكشف ستحلل بشكل متزايد سبب حدوث الإجراء بدلاً من مجرد تحليل ما حدث.
إذا علمنا عام 2025 أن الثقة يمكن استخدامها كسلاح، فإن عام 2026 سيعلمنا كيفية إعادة بناء الثقة بطريقة أكثر أمانًا وأكثر تعمدًا. لا يقتصر مستقبل الأمن السيبراني على تأمين الأنظمة فحسب، بل يتعلق أيضًا بتأمين المنطق والهوية والاستقلالية التي تحركها.
Aditya K Sood هو نائب رئيس قسم الهندسة الأمنية واستراتيجية الذكاء الاصطناعي في أرياكا.




