الأمن السيبراني

من الوعد إلى الإثبات: جعل اعتماد أمن الذكاء الاصطناعي ملموسًا


بدا العرض التوضيحي لمنتج الأمان المرتكز على الذكاء الاصطناعي مثيرًا للإعجاب. تحدث البائع بثقة عن الكشف المستقل، ودفاعات التعلم الذاتي، والعلاج القائم على الذكاء الاصطناعي. تم تحريك الرسوم البيانية في الوقت الفعلي، وتم حل التنبيهات من تلقاء نفسها، وبدا أن التهديدات تختفي قبل أن يلاحظها المحللون البشريون.

لقد رأى كل كبير مسؤولي أمن المعلومات (CISO) نسخة من هذه القصة. ومع وجود أدوات الأمن السيبراني المدعومة بالذكاء الاصطناعي أو المعززة به في كل مكان الآن، لا يتمثل التحدي في ما إذا كان الذكاء الاصطناعي ينتمي إلى مجال الأمن فحسب، بل في كيفية تحديد الممارسات التي تقدم قيمة حقًا. بالنسبة لرؤساء أمن المعلومات والمشترين، يعد التمييز بين أمان الذكاء الاصطناعي المناسب والضجيج التسويقي أمرًا بالغ الأهمية لاتخاذ قرارات مستنيرة.

النتائج الأمنية مقابل بصريات الذكاء الاصطناعي: ما الذي يتحسن بالفعل؟

إحدى الحقائق الأولى التي يجب على مسؤولي أمن المعلومات قبولها هي أن الذكاء الاصطناعي في مجال الأمن السيبراني ليس بالأمر الجديد. يعمل التعلم الآلي (ML) على تشغيل مرشحات البريد العشوائي والكشف عن الحالات الشاذة وتحليل سلوك المستخدم وأنظمة الاحتيال لأكثر من عقد من الزمان. الجديد هو وصول نماذج اللغات الكبيرة (LLMs) وأدوات الذكاء الاصطناعي التي يسهل الوصول إليها والتي يقوم البائعون بوضعها بسرعة على المنتجات الحالية. لقد أدى هذا التحول إلى تغيير كيفية تفاعل فرق الأمان مع البيانات – الملخصات بدلاً من السجلات الأولية، وواجهات المحادثة بدلاً من لغات الاستعلام، والتوصيات الآلية بدلاً من لوحات المعلومات الثابتة.

يمكن أن يكون ذلك مفيدًا حقًا. ولكنه يخلق أيضاً وهماً بالاستخبارات، على الرغم من أن الأساسيات الأمنية الأساسية ربما لم تتغير. الخطأ الذي ترتكبه العديد من المؤسسات هو افتراض أن المزيد من الذكاء الاصطناعي يعني تلقائيًا أمانًا أفضل. لا.

أحد الدروس التي تستمر في الظهور هو أن الهندسة المعمارية تتفوق على الميزات. لن ينقذك الذكاء الاصطناعي المثبت على أساس أمني ضعيف. إذا تم كسر الهوية، أو كانت إدارة البيانات غير واضحة، أو كانت رؤية الشبكة مجزأة، فإن الذكاء الاصطناعي يعمل ببساطة على مدخلات سيئة وينتج مخرجات غير موثوقة. ويجب على مسؤولي أمن المعلومات أيضًا أن يفهموا أن الذكاء الاصطناعي لا يحل محل الأساسيات، بل يعمل على تضخيمها.

غسل الذكاء الاصطناعي: حيث تنجرف المطالبات الأمنية إلى الضجيج

يجب أن تؤخذ مسألة غسل الذكاء الاصطناعي على محمل الجد يبالغ البائعون في تقدير استخدام الذكاء الاصطناعي أو يشوهونه في المنتجات للاستفادة من الضجيج في السوق بدلاً من تقديم قدرة حقيقية. وفي مجال الأمن السيبراني، يعني هذا غالبا إعادة تسمية القواعد التقليدية، أو الاستدلالات، أو الأتمتة الأساسية لتصبح “معتمدة على الذكاء الاصطناعي” دون ابتكار ذي معنى أو نتائج قابلة للقياس. إن غسيل الذكاء الاصطناعي يربك المشترين ويضخم التوقعات ويحجب المخاطر الحقيقية من خلال الاختباء وراء ادعاءات غامضة ونماذج مبهمة.

تنشأ المشاكل عندما يتم وضع الذكاء الاصطناعي على أنه مستقل تمامًا، أو شفاء ذاتي، أو قادر على استبدال الحكم البشري تمامًا. ومن الناحية العملية، غالبًا ما تحجب هذه الادعاءات قيودًا كبيرة. إحدى العلامات الحمراء في عرض البائع هي عتامة الذكاء الاصطناعي. إذا لم يتمكن البائعون من شرح البيانات التي يستخدمها الذكاء الاصطناعي بوضوح، أو كيفية اتخاذ القرارات أو كيفية التعامل مع الأخطاء، فيجب على مسؤولي أمن المعلومات توخي الحذر. إن إدراك هذه القيود يساعد قادة الأمن على الشعور بالاستعداد وتجنب الاعتماد المفرط على ادعاءات غير مثبتة.

بالنسبة لرؤساء أمن المعلومات، لا يتمثل الخطر في إهدار الاستثمار فحسب، بل في اعتماد أدوات تزيد من التعقيد دون تحسين الوضع الأمني.

الذكاء الاصطناعي هو قوة وقيمة مضاعفة

الذكاء الاصطناعي هو قوة وقيمة مضاعفة، ليس لأنه يحل محل الأشخاص أو العمليات، ولكن لأنه يضخم ما هو موجود بالفعل. في مجال الأمن السيبراني، يعمل الذكاء الاصطناعي على تسريع عملية الكشف وتوسيع نطاق التحليل ومساعدة الفرق على اتخاذ قرارات أسرع وأكثر استنارة عبر كميات هائلة من البيانات التي لا يستطيع البشر التعامل معها بمفردهم. عندما يقترن الذكاء الاصطناعي ببنية قوية وقياس عن بعد عالي الجودة ونية تشغيلية واضحة، فإنه يزيد من الكفاءة والوصول والتأثير. لا تكمن القيمة الحقيقية للذكاء الاصطناعي في الأتمتة وحدها، بل في مدى فعالية تصميم المؤسسات لها وإدارتها وتشغيلها. هناك العديد من المجالات التي تحقق فيها القدرات الأمنية المعتمدة على الذكاء الاصطناعي فوائد ملموسة.

اكتشاف التهديدات على نطاق واسع تظل واحدة من أقوى حالات استخدام الذكاء الاصطناعي. تولد البيئات الحديثة قياسًا عن بعد أكثر مما يستطيع البشر تحليله بشكل واقعي. يتفوق الذكاء الاصطناعي في اكتشاف الأنماط عبر تدفقات الشبكة وسلوك الهوية ونشاط نقطة النهاية والإشارات السحابية – خاصة عندما يندمج المهاجمون عمدًا في العمليات اليومية.

هناك أيضًا فوائد واضحة في العمليات الأمنية والفرز. يمكن لـ LLM تلخيص الحوادث وشرح سبب أهمية التنبيه وربط الإشارات عبر الأدوات وتقليل وقت التحقيق. وهذا لا يحل محل المحللين، ولكنه يحسن الإنتاجية بشكل كبير، مما يوفر ميزة أساسية في عصر نقص الموظفين.

المجال الثالث حيث يمكن للذكاء الاصطناعي أن يحدث فرقًا كبيرًا هو هندسة الكشف وتحليل الفجوات. ويمكن أن يساعد الفرق على التفكير بشأن التغطية، واقتراح اكتشافات جديدة وتحديد النقاط العمياء في إنفاذ السياسات. عند استخدامه بعناية، فإنه يقوي الوضع الدفاعي دون زيادة الضوضاء.

وفي هذه الحالات، يعمل الذكاء الاصطناعي كمضاعف للقوة، وليس كصانع قرار، وهذا التمييز مهم.

الأسئلة التي يجب أن يطرحها CISOs

لتجاوز هذه الضجيج، يجب على كبار مسؤولي تكنولوجيا المعلومات تحويل محادثات البائعين بعيدًا عن الكلمات الطنانة الخاصة بالذكاء الاصطناعي ونحو الواقع التشغيلي. يجب أن يكون الهدف هو مناقشة الاستخدام السياقي للذكاء الاصطناعي في الأمن السيبراني. إن طرح أسئلة مستهدفة، مثل المشكلات الأمنية المحددة التي يعالجها الذكاء الاصطناعي بشكل أفضل من الأدوات الحالية أو كيفية إدارة الأخطاء، يمكن أن يساعد في تقييم القدرات الحقيقية وتجنب الضجيج.

  • ما هي المشكلة الأمنية المحددة التي يحلها الذكاء الاصطناعي بشكل أفضل من الأدوات الموجودة؟
  • ماذا يحدث عندما يكون الذكاء الاصطناعي مخطئًا – وكم مرة يحدث ذلك؟
  • هل الرقابة البشرية مدمجة في سير العمل أم أنها اختيارية؟
  • ما هي البيانات التي تترك بيئتنا وكيف تتم حمايتها؟
  • كيف يتكامل هذا مع بنيتنا وضوابطنا الحالية؟

الهدف ليس تجنب الذكاء الاصطناعي، بل التأكد من أن الذكاء الاصطناعي يعزز الأمن بدلاً من تقديم مخاطر جديدة غير مُدارة. ومن خلال اعتماد الذكاء الاصطناعي بشكل مدروس وبفهم واضح، يمكن لرؤساء أمن المعلومات أن يشعروا بالقدرة على اتخاذ قرارات استراتيجية تعزز الأمن دون تعريض أنفسهم دون داع لمجهول.

اتخاذ القرار الصحيح لمؤسستك

يعتمد الاستثمار الصحيح في أمن الذكاء الاصطناعي على النضج. بالنسبة لبعض المؤسسات، فإن أكبر فوز هو الرؤية والفرز بمساعدة الذكاء الاصطناعي. بالنسبة للآخرين، إنها هندسة الكشف أو التحليلات السلوكية. عدد قليل جدًا منهم جاهز للاستجابة المستقلة الكاملة، ولا بأس بذلك. يتخذ مدراء تكنولوجيا المعلومات الذين ينجحون في استخدام الذكاء الاصطناعي نهجًا مدروسًا يعتمد على حالة الاستخدام. إنهم يقومون بتجريب النتائج والتحقق من صحتها ويحتفظون بالمساءلة البشرية. إنهم يطالبون بالوضوح، وليس بالكلمات الطنانة. ويتذكرون أن الأمن يدور في نهاية المطاف حول الحد من المخاطر، وليس الجدة التكنولوجية.

إن الذكاء الاصطناعي ليس حلاً سحرياً ولا موضة في مجال الأمن السيبراني. إنها أداة قوية – أداة يمكنها تحسين الدفاع بشكل هادف عند تطبيقها بشكل مدروس، وبنفس السهولة خلق مخاطر جديدة عند اعتمادها دون أدنى شك. بالنسبة لرؤساء أمن المعلومات والمشترين، فإن الهدف ليس شراء “أمن الذكاء الاصطناعي”. إنه شراء الأمن الذي يستخدم الذكاء الاصطناعي بطريقة مسؤولة وشفافة وفعالية. المنظمات التي ستحقق هذا الأمر بشكل صحيح لن تكون هي التي تتمتع بأكبر قدر من الذكاء الاصطناعي؛ سيكونون هم الذين اتخذوا الاختيارات الأكثر ذكاءً حول مكان وسبب وكيفية استخدامه.

Aditya K Sood هو نائب رئيس قسم الهندسة الأمنية واستراتيجية الذكاء الاصطناعي في أرياكا.



Source link

زر الذهاب إلى الأعلى