الأمن السيبراني

السرعة بدون أمان هي مسؤولية


يشهد تطوير البرمجيات تحولًا أساسيًا نحو “الترميز الديناميكي”، حيث يبتعد المطورون عن العملية اليدوية الدقيقة لكتابة التعليمات البرمجية ويستخدمون بدلاً من ذلك مطالبات اللغة الطبيعية لوصف النتيجة المرجوة.

إنهم يقدمون “الاهتزاز“، ويقوم وكلاء الذكاء الاصطناعي بإنشاء التعليمات البرمجية القابلة للتنفيذ.

بالنسبة للمؤسسات أو الفرق التي تحتاج إلى العمل بسرعة، فإن القدرة على تفعيل الميزة إلى الوجود أمر مغرٍ للغاية. ومع ذلك، وفقا لأ تقرير بحثي من شركة Wakefield Research نيابةً عن Palo Alto Networks، فإن هذه الطفرة في التطوير القائم على الذكاء الاصطناعي تخلق مشكلة أمنية هائلة. في حين أن الشركات تقوم بشحن التعليمات البرمجية بشكل أسرع من أي وقت مضى، فإننا نعمل أيضًا على تسريع تراكم الديون الفنية والثغرات الأمنية الحرجة.

مفارقة الإنتاجية

يكشف تقرير بالو ألتو نتوركس عن انفصال كبير في كيفية بناء البرمجيات اليوم. على الرغم من أن مساعدة الذكاء الاصطناعي سمحت لـ 53% من متخصصي تكنولوجيا المعلومات الذين شملهم الاستطلاع والبالغ عددهم 2800 بشحن التعليمات البرمجية أسبوعيًا أو بشكل أسرع، إلا أن العمليات الأمنية لم تواكب هذه السرعة الجديدة. وفي الواقع، أفادت 18% فقط من المؤسسات أنها قادرة على إصلاح الثغرات الأمنية بهذه الوتيرة. في الأساس، نحن نتحرك بشكل أسرع مما يمكننا حماية أنفسنا.

متعلق ب:مع قيام Microsoft بتوسيع برنامج Copilot، يواجه مديرو تكنولوجيا المعلومات ثغرة أمنية جديدة في مجال الذكاء الاصطناعي

تسهل برمجة Vibe على أي شخص إنشاء برامج معقدة، ولكن غالبًا ما تأتي هذه السرعة على حساب الفهم. عندما يعتمد المطور على الذكاء الاصطناعي لتوليد التعليمات البرمجية، يمكنهم الدفع بالمنطق الذي لم يتحققوا منه شخصيًا. إذا لم تفهم بشكل كامل كيفية عمل الكود، فمن المستحيل أن تكون مسؤولاً حقًا عن أمانه، وهذا يجعل معالجة المشكلات في المستقبل أكثر تعقيدًا. يؤدي هذا النقص في الرقابة إلى الإضرار بجودة التعليمات البرمجية، مما يؤدي إلى برامج أكبر حجمًا وأقل كفاءة.

الذكاء الاصطناعي: سطح الهجوم الأساسي الجديد

أصبحت مخاطر مخرجات الذكاء الاصطناعي التي لم يتم التحقق منها حقيقة واقعة الآن. وجد تقرير بالو ألتو نتوركس لعام 2025 أن 99% من المؤسسات واجهت هجومًا على نظام الذكاء الاصطناعي في العام الماضي. بينما نقوم بتمكين عملاء الذكاء الاصطناعي من كتابة التعليمات البرمجية، فإننا نقوم في نفس الوقت بتوسيع سطح الهجوم بالطرق الثلاث الحاسمة التالية:

  1. ارتفاع واجهة برمجة التطبيقات: نظرًا لأن وكلاء الذكاء الاصطناعي يعتمدون بشكل كبير على واجهات برمجة التطبيقات للتواصل وتنفيذ المهام، فقد ارتفعت الهجمات على واجهات برمجة التطبيقات بنسبة 41%. غالبًا ما يُنشئ برنامج Vibe coding “واجهات برمجة تطبيقات الظل”، مع اتصالات قد لا يدرك المطور أنها تم إنشاؤها بواسطة الذكاء الاصطناعي.

  2. الحقن الفوري والاستقلالية: إن منح وكيل الذكاء الاصطناعي القدرة على تحرير الملفات أو تنزيل مكتبات البرامج بمفرده يعد مقامرة أمنية هائلة. إذا خدع مهاجم الذكاء الاصطناعي بمطالبة ضارة، فإن هذا الاستقلال يأتي بنتائج عكسية، ويصبح الذكاء الاصطناعي نفسه أداة للمتسلل للتنقل عبر أنظمتك.

  3. سلسلة التوريد الخاصة بالذكاء الاصطناعي: تعتمد التعليمات البرمجية التي ينشئها الذكاء الاصطناعي في كثير من الأحيان على المكتبات مفتوحة المصدر. إذا لم يتم فحص هذه التبعيات بشكل صارم، فإن المؤسسات تخاطر بوراثة حزم قديمة أو ضارة. والأخطر من ذلك هو أن الذكاء الاصطناعي يمكن أن يهذي بأسماء حزم غير موجودة. تمارس الجهات الفاعلة في مجال التهديد الآن “slopsquatting”، وهو عندما يقومون بتسجيل هذه الأسماء الملفقة في المستودعات العامة لضمان سحب التعليمات البرمجية الضارة الخاصة بهم من قبل عملاء الذكاء الاصطناعي المطمئنين.

  4. الملكية الفكرية المكشوفة: غالبًا ما يتضمن تشفير Vibe إرسال منطق الملكية إلى نماذج الطرف الثالث. بدون إطار عمل آمن، تدخل الملكية الفكرية الأكثر قيمة لشركتك بشكل فعال إلى الملكية العامة، حيث يمكن استخدامها لتدريب النماذج المستقبلية

متعلق ب:أصبح بائع الذكاء الاصطناعي الخاص بك الآن نقطة فشل واحدة

من مبرمج إلى “قائد فريق الذكاء الاصطناعي”

من أجل البقاء على قيد الحياة في عصر الترميز الحيوي، فإن دور مهندس كبير يجب أن تتطور. لقد شهدنا صعود قائد فريق الذكاء الاصطناعي. في هذا النموذج، تتحول قيمة المهندس من حجم التعليمات البرمجية التي يكتبها شخصيًا إلى الإشراف الاستراتيجي على نظام بيئي كامل لعملاء الذكاء الاصطناعي. لا يتعلق الأمر بمراجعة البشر يدويًا لكل سطر من التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ولكنه يتعلق بدلاً من ذلك بنشر عملاء أمنيين لمراقبة وكلاء التشفير.

في هذا النموذج الأمني ​​”من وكيل إلى وكيل”، يحدد القائد البشري الحواجز والنوايا عالية المستوى، بينما يقوم عملاء الأمن المستقلون بأداء المهام الثقيلة. ويشمل ذلك التدقيق في الوقت الفعلي، والمعالجة الآلية، والحوكمة السياقية.

متعلق ب:دليل عملي للتحكم في تكاليف وكيل الذكاء الاصطناعي قبل أن تتفاقم

الطريق إلى الثقة الهندسية

الإجماع بين المتخصصين في مجال الأمن واضح: “الأجواء” ليست كافية. وفقاً لتقرير بالو ألتو نتوركس، فإن 97% من المؤسسات تعطي الأولوية لتعزيز بصمتها الأمنية السحابية للقضاء على الثغرات التي خلقتها الأدوات المجزأة.

السرعة بدون أمان أمر خطير. لإطلاق العنان للوعد الحقيقي بالإنتاجية المعتمدة على الذكاء الاصطناعي، يجب على المؤسسات تجاوز البرمجة الديناميكية ونحو الثقة الهندسية. هذا يعنى:

  • فرض المسح الدقيق: يجب مراجعة التعليمات البرمجية التي ينشئها الذكاء الاصطناعي بنفس الدقة (أو أكثر) مثل التعليمات البرمجية البشرية.

  • توحيد المنصات: الابتعاد عن عدد كبير من أدوات الأمان المختلفة إلى منصة موحدة “للتحويل من التعليمات البرمجية إلى السحابة”.

  • تعريف المساءلة: التأكد من أن كل سطر من التعليمات البرمجية، سواء كانت مكتوبة أو “مفعمة بالحيوية”، لديه إنسان مسؤول عن سلامته.

إن مستقبل السحابة يُكتب بواسطة الذكاء الاصطناعي، ولكن يجب أن يحكمه البشر. إذا واصلنا إعطاء الأولوية ل”أجواء” الابتكار السريع على واقع الهندسة الآمنة، فإننا لا نبني التطبيقات فحسب؛ نحن نخلق التزامات أمنية.





Source link

زر الذهاب إلى الأعلى