الأمن السيبراني

دع ألعاب الحرب الأمنية AI تبدأ


في فبراير 2024 ، ذكرت سي إن إن ، “تم خداع عامل مالي في شركة متعددة الجنسيات في دفع 25 مليون دولار للمحتالين الذين يستخدمون تقنية DeepFake ليشكلوا كسيبر المدير المالي للشركة في مؤتمر عبر الفيديو.”

في أوروبا ، شهدت شركة ثانية احتيالًا بملايين الدولارات عندما قام أحد أعضاء مجلس الإدارة بملايين الدولارات عندما احتجز أحد أعضاء مجلس الإدارة في مقطع فيديو يزعم أنه يوافق على تحويل الأموال الاحتيالية.

“البنوك والمؤسسات المالية معرضة للخطر بشكل خاص ،” قال أكاديمية الاختراق. “وجدت دراسة أجرتها Deloitte أن أكثر من 50 ٪ من كبار المسؤولين التنفيذيين يتوقعون أن تستهدف عمليات الاحتيال العميقة منظماتهم قريبًا. يمكن أن تقوض هذه الهجمات الثقة وتؤدي إلى خسارة مالية كبيرة.”

ومضت Hack Academy قائلة إن هجمات الأمنية المستوحاة من AI لم تكن محصورة في DeepFakes. بدأت هذه الهجمات أيضًا في الحدوث مع زيادة الانتظام في شكل حملات تجسس للشركات وتضليل المعلومات. تجلب الذكاء الاصطناعي تكتيكات جديدة وأكثر خطورة لأساليب الهجوم الأمنية التقليدية مثل التصيد والهندسة الاجتماعية وإدخال البرامج الضارة في الأنظمة.

بالنسبة لمراكمة CIO ، فإن مطوري نظام AI للمؤسسة ، وعلماء البيانات ومهنيي شبكة تكنولوجيا المعلومات ، يغير الذكاء الاصطناعى القواعد وتكتيكات الأمن، بالنظر إلى إمكانات منظمة العفو الدولية غير المحدودة لكل من الخير والسيئ. هذا يجبر إعادة التعيين في كيفية تفكيره في الأمن ضد الجهات الفاعلة والمتسللين الخبيثين.

متعلق ب:تهديدات خفية تعرقل مرونة الإنترنت في عام 2025

كيف تستغل الممثلين السيئين الذكاء الاصطناعي

ما هو بالضبط ضد؟ تمنح أدوات الذكاء الاصطناعى المتوفرة على شبكة الإنترنت المظلمة وفي الأسواق الإلكترونية العامة مرتكبي الأمن مجموعة واسعة من أسلحة الذكاء الاصطناعي. أيضًا ، تقدم IoT و Edge Networks الآن أسطح هجوم للمؤسسات الأوسع نطاقًا. يمكن أن تأتي تهديدات الأمان في مقاطع الفيديو والمكالمات الهاتفية ومواقع التواصل الاجتماعي وأنظمة الشركات والشبكات ، والغيوم البائع ، وأجهزة إنترنت الأشياء ، ونقاط نهاية الشبكة ، وأي نقطة دخول تقريبًا في بيئة تكنولوجيا المعلومات للشركات التي يمكن أن تخترقها الاتصالات الإلكترونية.

فيما يلي بعض الهجمات الأمنية المرتبطة بالنيابة التي تراها الشركات:

مقنع مقاطع فيديو DeepFake من المديرين التنفيذيين للشركات وأصحاب المصلحة الذين يهدفون إلى DUPE في متابعة إجراءات معينة أو نقل بعض الأصول أو الأموال. يمتد هذا التزوير العميق أيضًا إلى محاكاة الصوت من الموظفين الرئيسيين الذين يتم تركهم كأسلوب صوتي في أنظمة هاتف الشركات.

هجمات التصيد والرمح التي ترسل رسائل بريد إلكتروني مقنعة (البعض مع مرفقات ضارة) للموظفين ، الذين يفتحونهم عن طريق الخطأ لأنهم يعتقدون أن المرسل هو رئيسهم أو الرئيس التنفيذي أو أي شخص آخر يعتبرونه موثوقًا به. AI Superchass هذه الهجمات لأنها يمكن أن تتم أتمتة وإرسال حجم كبير من رسائل البريد الإلكتروني التي تضرب العديد من حسابات البريد الإلكتروني للموظف. تستمر الذكاء الاصطناعى في “التعلم” بمساعدة التعلم الآلي حتى يتمكن من اكتشاف مرشحين مرسلين موثوق بهم للهجمات المستقبلية.

متعلق ب:كيفية تقييم مخاطر مشروع تكنولوجيا المعلومات بنجاح

المراسلة التكيفية يستخدم ذلك الذكاء الاصطناعى التوليدي لصياغة الرسائل للمستخدمين الذين يصححون القواعد النحوية وأن “التعلم” من أنماط اتصالات الشركات حتى يتمكنوا من محاكاة اتصالات الشركات التي تجعلها تبدو مشروعة بشكل أوثق.

رمز التحور هذا يستخدم الذكاء الاصطناعي لتغيير توقيعات البرامج الضارة أثناء الطيران بحيث يمكن تهرب آليات الكشف عن الفيروسات.

تسمم البيانات يحدث ذلك عندما يتم حقن مستودع بيانات AI الخاص بمزود الذكاء الاصطناعى في الشركة أو الخزانات السحابية بواسطة البرامج الضارة التي تغير (“السموم”) بحيث تنتج البيانات نتائج خاطئة ومضللة.

القتال مع التكنولوجيا

لمكافحة هذه التهديدات الأمنية القائمة على الذكاء الاصطناعي ، لديها عدد من الأدوات والتقنيات والاستراتيجيات التي يمكن أن تنظر فيها.

القتال العميق. يمكن أن تأتي Deepfakes في شكل مقاطع فيديو وأسلوب صوتي وصور. نظرًا لأن DeepFakes هي كائنات بيانات غير منظمة لا يمكن تحليلها في أشكالها الأصلية مثل البيانات الحقيقية ، فهناك هناك أدوات جديدة في السوق يمكن أن تحويل هذه الكائنات إلى تمثيلات رسومية يمكن تحليلها لتقييم ما إذا كان هناك شيء ما في كائن يجب أو لا ينبغي أن يكون هناك. الهدف هو تأكيد الأصالة.

متعلق ب:يتطلب بناء برامج أمنية فعالة الاستراتيجية والصبر ورؤية واضحة

مكافحة التصيد والتصيد الحاد. مزيج من السياسة والممارسة يعمل بشكل أفضل لمكافحة هجمات التصيد والتصيد الرمح. يتم تنفيذ كلا النوعين من الهجمات على المستخدمين الذين يتم خداعهم في فتح مرفق بريد إلكتروني يعتقدون أنه من مرسل موثوق به ، وبالتالي فإن خط الدفاع الأول هو تعليم المستخدمين (والتكرار) حول كيفية التعامل مع بريدهم الإلكتروني. على سبيل المثال ، يجب على المستخدم إخطاره إذا تلقى بريدًا إلكترونيًا يبدو غير عادي أو غير متوقع ، ويجب ألا يفتحه أبدًا.

يجب عليه أيضًا مراجعة أدوات الأمان الحالية. هل لا يزال يستخدم برنامج مراقبة الأمان الأقدم الذي لا يتضمن تقنيات أكثر حداثة مثل قابلية الملاحظة ، والتي يمكن أن تتحقق من تدخلات الأمان أو البرامج الضارة على مستويات أكثر ذرية؟

هل ما زال يستخدم برنامج IAM (إدارة الوصول إلى الهوية) لتتبع هويات المستخدم وأنشطته على مستوى أعلى في السحابة وعلى المستويات القمة والذرية في المباني ، أو هل أضافت أيضًا إدارة حقوق الهوية السحابية (CIEM) ، والتي تمنحها طريقة عرض ذرية للوصول إلى المستخدم والأنشطة في السحابة؟ والأفضل من ذلك ، هل انتقلت إلى إدارة حوكمة الهوية (IGA) ، والتي يمكن أن تكون بمثابة مظلة شاملة للمكونات الإضافية IAM و CIEM ، بالإضافة إلى توفير تقارير تدقيق مفصلة والامتثال الآلي عبر جميع المنصات؟

القتال رمز البرمجيات الخبيثة المدمجة. يمكن أن تكمن البرامج الضارة في الأنظمة لعدة أشهر ، مما يمنح الممثل السيئ خيار تنشيطه كلما كان التوقيت صحيحًا. إنه لأسباب أخرى أن تزيد من موظفي الأمن بمهارات جديدة ، مثل “صياد التهديد” ، الذي تتمثل مهمته في فحص الشبكات والبيانات والأنظمة على أساس يومي ، وتراجع البرامج الضارة التي قد تتربص فيها وتدميرها قبل تنشيطها.

القتال مع شبكات الثقة الصفر. تأتي أجهزة Internet of Things (IoT) إلى الشركات التي لديها القليل من الأمان أو معدومًا لأن موردي إنترنت الأشياء لا يهتمون بها كثيرًا ، وهناك توقع عام بأن تقوم الشركة بتكوين الأجهزة إلى إعدادات الأمان المناسبة. المشكلة هي أنه غالبًا ما ينسى القيام بذلك. هناك أيضًا أوقات يشتري فيها المستخدمون معدات إنترنت الأشياء الخاصة بهم ، ولا يعرف ذلك.

تساعد شبكات الثقة الصفرية في إدارة هذا الأمر ، لأنها تكتشف ويبلغ عن كل ما يتم إضافته أو طرحه أو تعديله على الشبكة. هذا يمنحه رؤية في نقاط خرق أمان جديدة محتملة.

تتمثل الخطوة الثانية في إضفاء الطابع الرسمي على إجراءات تكنولوجيا المعلومات لأجهزة إنترنت الأشياء بحيث لا يتم نشر أي جهاز إنترنت الأشياء دون تعيين أمان الجهاز أولاً على معايير الشركات.

محاربة تسمم بيانات الذكاء الاصطناعي. يجب مراقبة نماذج الذكاء الاصطناعي والأنظمة والبيانات بشكل مستمر للدقة. بمجرد أن تظهر مستويات منخفضة من الدقة أو تنتج استنتاجات غير عادية ، ينبغي فحص مستودع البيانات والتدفقات والتدفقات الخارجية للجودة وعدم تحيز البيانات. إذا تم العثور على التلوث ، فيجب أن يتم إلغاء النظام ، وتطهير البيانات ، وتتبع مصادر التلوث وتعقبه وتعطيله.

قتال الذكاء الاصطناعي مع الذكاء الاصطناعي. تحتوي معظم كل أداة أمان في السوق اليوم على وظائف منظمة العفو الدولية للكشف عن الحالات الشاذة وأنماط البيانات غير الطبيعية وأنشطة المستخدم. بالإضافة إلى ذلك ، يمكن للطب الشرعي منظمة العفو الدولية تشريح خرق أمني يحدث ، وعزل كيف حدث ذلك ، ومن أين نشأت وما الذي تسبب فيه. نظرًا لأن معظم المواقع لا تملك خبراء الطب الشرعي على الموظفين ، فسيتعين عليها تدريب الموظفين على مهارات الطب الشرعي.

القتال مع عمليات التدقيق العادية واختبار الضعف. الحد الأدنى ، يجب إجراء اختبار الضعف على أساس ربع سنوي ، ومراجعات الأمن الكاملة على أساس سنوي. إذا استخدمت المواقع مقدمي الخدمات السحابية ، فيجب عليهم طلب آخر تدقيق أمان لكل مزود للمراجعة.

يمكن للمراجع الخارجي أيضًا مساعدة المواقع على الاستعداد للتهديدات الأمنية التي تعتمد على الذكاء الاصطناعي في المستقبل ، لأن المدققين يظلون على رأس الصناعة ، وزيارة العديد من الشركات المختلفة ، ومشاهدة العديد من المواقف المختلفة. تساعد المعرفة المتقدمة بالتهديدات التي تلوح في الأفق في المستقبل المواقع على الاستعداد لمعارك جديدة.

ملخص

تقنية الذكاء الاصطناعي تتحرك بشكل أسرع من الأحكام واللوائح القانونية. هذا يترك معظم أقسام تكنولوجيا المعلومات “بمفردهم” لتطوير الدفاعات الأمنية ضد الجهات الفاعلة السيئة الذين يستخدمون الذكاء الاصطناعي ضدهم.

والخبر السار هو أن لديها بالفعل نظرة ثاقبة على مدى سوء الفاعلين الذين يعتزمون استخدام الذكاء الاصطناعي ، وهناك أدوات في السوق يمكن أن تساعد في الجهود الدفاعية.

ما كان مفقودًا هو خطة معركة استباقية وعدوانية منها. يجب أن يبدأ الآن.





Source link

زر الذهاب إلى الأعلى