أعداء الولايات المتحدة مسلحون بـ GenAI
تقول Microsoft وOpenAI إن إيران وكوريا الشمالية وروسيا والصين بدأت في تسليح جهود الهجوم السيبراني الأمريكية بالذكاء الاصطناعي المولد (GenAI).
وقالت الشركات في أ مشاركة مدونة على موقع Microsoft على الويب يوم الأربعاء أنهم اكتشفوا بشكل مشترك الهجمات وأوقفوها باستخدام تقنيات الذكاء الاصطناعي الخاصة بهم. وأدرجت الشركات عدة أمثلة لهجمات محددة باستخدام نماذج لغوية كبيرة لتعزيز جهود الهندسة الاجتماعية الضارة، مما يؤدي إلى تحسين التزييف العميق واستنساخ الصوت لمحاولة اختراق الأنظمة الأمريكية.
وقالت ميكوسوفت إن مجموعة كيمسوكي الإلكترونية في كوريا الشمالية، والحرس الثوري الإيراني، والجيش الروسي، ومجموعة تجسس إلكتروني صينية تسمى أكواتيك باندا، استخدموا جميعًا أدوات نموذج اللغة الكبيرة الخاصة بالشركات لشن هجمات محتملة وأنشطة ضارة. تضمن الهجوم من إيران رسائل بريد إلكتروني تصيدية “تتظاهر بأنها قادمة من وكالة تنمية دولية ومحاولة أخرى لجذب ناشطات بارزات في مجال حقوق المرأة إلى موقع ويب أنشأه مهاجمون حول الحركة النسائية”.
تتزايد الهجمات الإلكترونية التي يشنها الخصوم الأجانب بشكل مطرد من حيث الشدة والتعقيد. هذا الشهر، قالت وكالة الأمن السيبراني والبنية التحتية (CISA) إن التهديد المدعوم من الصين فولت تايفون استهدفت البنية التحتية الحيوية للعديد من الدول الغربية وتمكنت من الوصول إلى الأنظمة لمدة خمس سنوات على الأقل. ويخشى الخبراء أن تزداد خطورة مثل هذه الهجمات مع استخدام الدول القومية لـGenAI لتعزيز جهودها.
تهديدات جديدة ودفاعات مألوفة
يقول نزار تيموشك، الرئيس التنفيذي لشركة UnderDefense للأمن السيبراني، لموقع InformationWeek في مقابلة هاتفية إنه حتى عندما تصبح التهديدات أكثر تعقيدًا من خلال GenAI، فإن أساسيات الأمن السيبراني يجب أن تظل كما هي. وقال إن مسؤولية الحماية تقع على عاتق الشركة المنتجة للذكاء الاصطناعي. ويقول: “كل منتج مزود بتقنية الذكاء الاصطناعي، لذا فهو الآن ميزة في كل برنامج”. “يصبح من المستحيل التمييز بين ما هو هجوم الذكاء الاصطناعي. لذا، فإن الشركة هي المسؤولة عن وضع ضوابط إضافية.”
ووصفت مايكروسوفت محاولات الهجوم بأنها “مرحلة مبكرة”، و”لم تحدد أبحاثنا مع OpenAI هجمات كبيرة تستخدم حاملي شهادات الماجستير الذين نراقبهم عن كثب”. وفي الوقت نفسه، نشعر أن هذا بحث مهم للكشف عن التحركات المبكرة والتدريجية التي نلاحظ أن جهات التهديد المعروفة تحاول القيام بها، ومشاركة المعلومات حول كيفية حظرنا ومواجهتهم مع مجتمع المدافعين.
تقول الشركات إن ممارسات النظافة مثل المصادقة متعددة العوامل ودفاعات الثقة المعدومة لا تزال أسلحة حيوية ضد الهجمات – سواء كانت معززة بالذكاء الاصطناعي أم لا. “على الرغم من أن المهاجمين سيظلون مهتمين بالقدرات الحالية وضوابط الأمان لتقنيات الذكاء الاصطناعي والتحقيق، فمن المهم إبقاء هذه المخاطر في سياقها.”
في منفصلة مشاركة مدونةتقول OpenAI إنها ستواصل العمل مع Microsoft لتحديد التهديدات المحتملة باستخدام نماذج GenAI.
“على الرغم من أننا نعمل على تقليل سوء الاستخدام المحتمل من قبل هذه الجهات الفاعلة، إلا أننا لن نتمكن من إيقاف كل حالة. ولكن من خلال الاستمرار في الابتكار والتحقيق والتعاون والمشاركة، فإننا نجعل من الصعب على الجهات الفاعلة الضارة أن تظل غير مكتشفة عبر النظام البيئي الرقمي وتحسين تجربة الجميع.
رفضت شركة OpenAI إتاحة مسؤول تنفيذي للتعليق.
جبهات متعددة في معركة الذكاء الاصطناعي
في حين ركز تقرير Microsoft وOpenAI على كيفية استخدام الجهات الفاعلة في التهديد لأدوات الذكاء الاصطناعي لشن الهجمات، إلا أن الذكاء الاصطناعي يمكن أن يكون أيضًا ناقلًا للهجوم. من المهم أن نتذكر هذا الأمر مع الشركات التي تطبق أدوات GenAI بوتيرة محمومة، كما يقول كريس “تيتو” سيستيتو، الرئيس التنفيذي والمؤسس المشارك لشركة الذكاء الاصطناعي الخصومة HiddenLayer، لموقع InformationWeek في رسالة بالبريد الإلكتروني.
يقول سيستيتو: “يعد الذكاء الاصطناعي، إلى حد كبير، التكنولوجيا الأكثر عرضة للخطر التي تم نشرها في أنظمة الإنتاج على الإطلاق”. “إنها ضعيفة على مستوى التعليمات البرمجية، أثناء التدريب والتطوير، وما بعد النشر، عبر الشبكات، عبر المخرجات التوليدية والمزيد. ومع التنفيذ السريع للذكاء الاصطناعي عبر القطاعات، كان هناك أيضًا ارتفاع كبير في الهجمات الضارة عمدًا – مما يوضح سبب الحاجة إلى حلول دفاعية لتأمين الذكاء الاصطناعي.
ويضيف: “يجب أن يواكب الأمن الذكاء الاصطناعي لتسريع وتيرة الابتكار. ولهذا السبب، من الضروري حماية أصولك الأكثر قيمة بدءًا من التطوير وحتى التنفيذ… ويجب على الشركات تحديث وتحسين برنامج الأمان الخاص بالذكاء الاصطناعي بشكل منتظم لمواجهة التحديات ونقاط الضعف الجديدة.