ماذا يحدث عند استخدام الذكاء الاصطناعي كسلاح مستقل

تستخدم الجهات الفاعلة التهديدات منظمة العفو الدولية لإطلاق المزيد من الهجمات الإلكترونية بشكل أسرع. في الآونة الأخيرة ، استخدموا الذكاء الاصطناعي المستقل لرفع الشريط إلى أبعد من ذلك ، مما يعرض المزيد من الشركات والأشخاص للخطر.
ومزيد من نماذج الوكيل يتم طرحها ، ستزداد تهديدات البرامج الضارة حتما ، مما يضع CISO و CIOs في حالة تأهب للتحضير.
يقول ريتشارد واتسون: “إن الإنتاجية المتزايدة في البرامج الضارة تشكل تهديدًا حقيقيًا للمؤسسات. وكذلك ظاهرة المزيفات العميقة ، التي تم إنشاؤها تلقائيًا من AI من مقاطع الفيديو عبر الإنترنت ، أو حتى من الصور الفوتوغرافية ، والتي يتم استخدامها بعد ذلك في هجمات الهندسة الاجتماعية المتقدمة”. ey زعيم الاستشارات العالمية وآسيا والمحيط الهادئ للأمن السيبراني. “لقد بدأنا نرى العملاء يعانون من هذه الأنواع من الهجمات.”
“مع وكيل الذكاء الاصطناعيويضيف واتسون: “إن قدرة الكود الخبيث الذي يتم إنتاجه دون أي مشاركة بشرية تصبح تهديدًا حقيقيًا.” إننا نرى بالفعل أن تكنولوجيا Deepfake تتطور بمعدل ينذر بالخطر ، ومقارنة العميق من ستة أشهر مع تلك الموجودة في شاشة الفيديو ، أو أصبحت أكثر أهمية في الصحة “.
تشكل الذكاء الاصطناعي الذاتي تهديدًا خطيرًا للمنظمات في جميع أنحاء العالم ، وفقًا لما ذكره دوغ سيلورز ، شركاء الشريك والأمن السيبراني في شركة Global Technology Research and Convisory ISG.
“كما تم اكتشاف ثغرة أمنية في اليوم الصفر ، المهاجمين [can] يقول المهاجمين: “استخدم منظمة العفو الدولية لتطوير أنواع هجمات متعددة بسرعة وإطلاقها على نطاق واسع.
كيف يمكن أن تزداد هجمات الذكاء الاصطناعي سوءًا
“أعتقد أن الأمر سيزداد سوءًا نماذج Genai تصبح أكثر شيوعًا وتتحسن القدرة على تدريبهم بسرعة. يقول سايلورز: “إن خصوم الدولة القومية يستخدمون هذه التكنولوجيا اليوم ، ولكن عندما تصبح متاحة لمجموعة أكبر من الجهات الفاعلة السيئة ، سيكون من الصعب للغاية حمايتها”.
على الرغم من وجود أدوات ضارة مثل Fraudgpt لفترة من الوقت ، Mandy Andress ، CISO في Search AI Company مرنة، يحذر الجديد نموذج Ghostgpt AI هو مثال رئيسي على الأدوات التي تساعد على إنشاء مجرمي الإنترنت رمزًا وإنشاء برامج ضارة على نطاق واسع.
يقول Andress: “مثل أي تقنية ناشئة ، ستتطلب آثار الكود الذي تم إنشاؤه من الذكاء الاصطناعى مهارات جديدة لمتخصصي الأمن السيبراني ، لذلك ستحتاج المؤسسات إلى الاستثمار في الفرق الماهرة وفهم نموذج أعمال شركتهم العميق لموازنة قرارات المخاطر”.
التهديد للمؤسسات كبيرة بالفعل ، وفقا لبن كولمان ، المؤسس المشارك والرئيس التنفيذي في Deepfake ومنصة الكشف عن وسائل الإعلام التي تم إنشاؤها من الذكاء الاصطناعى مدافع الواقع.
“نرى ممثلين سيئين يستفيدون من الذكاء الاصطناعى لخلق انتحارات مقنعة للغاية تتجاوز آليات الأمن التقليدية على نطاق واسع. تقنية استنساخ الصوتية الذكاء الاصطناعي يقول كولمان: “إن المهاجمين يمكنهم الانتحار بشكل مقنع من المديرين التنفيذيين في المكالمات الهاتفية لتوضيح عمليات النقل السلكية أو الوصول إلى المعلومات الحساسة”.
“تأتي هذه التهديدات في المقام الأول من الشبكات الجنائية المنظمة والجهات الفاعلة في الدولة القومية الذين يعترفون بالميزة غير المتماثلة التي تقدمها الذكاء الاصطناعي. إنهم يستهدفون قنوات الاتصال أولاً لأنهم أساس الثقة في العمليات التجارية.”
كيف تتطور التهديدات
يستخدم المهاجمون إمكانات الذكاء الاصطناعي لأتمتة أساليب الهجوم التقليدية وتوسيع نطاقها وإخفاءها. وفقا لكيسي كوركوران ، Field CISO في SHI Company طبقة الطبقات، تتضمن الأمثلة إنشاء هجمات أكثر إقناعًا للتصيد والهندسة الاجتماعية لتعديل البرامج الضارة تلقائيًا بحيث تكون فريدة من نوعها لكل هجوم ، وبالتالي هزيمة الكشف القائم على التوقيع.
“مع استمرار تقدم تقنية الذكاء الاصطناعي ، من المؤكد أننا سنرى هجمات أكثر حيوية وتكيفية مثل DeepFake Image و Inversonational Moviance ، أو سلاسل ناقلات الهجوم المعقدة الموجه AI-AI ، أو حتى القدرة على إنشاء ملفات تعريف مالية واجتماعية للمنظمات المستهدفة والموظفين على نطاق واسع لاستهدافها بشكل أكثر دقة وفعالية للهجوم على الهندسة الاجتماعية”. ويضيف أن التهديد الناشئ هو الروبوتات المحسنة من الذكاء الاصطناعى والتي ستتمكن من تنسيق الهجمات لتحدي قدرات الوقاية من DDOS وحمايتها.
كيف يمكن لمديري خرسانة مديري المعلومات و CISO حماية المنظمة بشكل أفضل
تحتاج المنظمات إلى احتضان “الذكاء الاصطناعي للسيبر” ، باستخدام الذكاء الاصطناعي بشكل خاص في اكتشاف التهديدات والاستجابة لها ، لتحديد الحالات الشاذة ومؤشرات التسوية ، وفقًا لما قاله واتسون في EY.
يقول واتسون: “يجب نشر تقنيات جديدة لمراقبة البيانات في الحركة بشكل أوثق ، وكذلك تصنيف البيانات بشكل أفضل لتمكينها من الحماية”. ويضيف أن المنظمات التي استثمرت في الوعي الأمني وتنقل المساءلة عن بعض المخاطر السيبرانية خارجها وإلى الأعمال هي التي تقف بشكل أفضل في عصر الذكاء الاصطناعي التوليدي.
مع تطور مجرمي الإنترنت تكتيكاتهم ، يجب أن تكون المنظمات قابلة للتكيف ، رشيقة وتضمن أنها تتبع أساسيات الأمن.
يقول Andastic’s Andress: “إن فرق الأمن التي لديها رؤية كاملة في أصولها ، وفرض التكوينات المناسبة ، والبقاء على اطلاع على البقع يمكن أن تخفف من 90 ٪ من التهديدات”. “على الرغم من أن الأمر قد يبدو متناقضًا ، إلا أن الأدوات التي تعمل بالنيابة يمكن أن تتخذ هذه الخطوة إلى الأمام ، مما يوفر قدرات الشفاء الذاتي ومساعدة فرق الأمن على مواجهة المخاطر الناشئة بشكل استباقي.”
يعتقد Colman’s Reality Defender أن أفضل استراتيجية للحماية هي دفاع طبقة يجمع بين الحلول التكنولوجية والحكم البشري والبروتوكولات التنظيمية.
يقول كولمان: “تحتاج قنوات الاتصال الحرجة إلى طرق التحقق المتسقة ، سواء كانت آلية أو يدوية ، مع مسارات تصعيد واضحة للتفاعلات المشبوهة”. يجب أن تنشئ فرق الأمن عمليات تتكيف مع التهديدات الناشئة واختبار مرونتها بانتظام ضد قدرات الذكاء الاصطناعي الجديدة بدلاً من الاعتماد على الدفاعات الثابتة.
يقول كوركوران من Stratascale إن المنظمات التي تم توزيعها جيدًا ستخضع جيدًا من خلال الاستفادة من الذكاء الاصطناعي عبر منتجات وخدمات البائعين لغرز القياس عن بعد والاستجابة معًا. كما يحتاجون إلى التركيز على النظافة الإلكترونية.
يقول كوركوران إن المنظمات يجب أن تضمن أنها تحمي موظفيها ومنحهم الأدوات والعمليات والتدريب اللازمة لمكافحة مصائد الهندسة الاجتماعية. ويضيف: “لا يعمل استغلال الضعف الآلي المحسّن إلا إذا كانت هناك نقاط ضعف”. “إن زيادة الضعف وإدارة التصحيح ، واختبار القلم للثغرات غير المعروفة سوف يقطع شوطًا طويلاً نحو الدفاع ضد هذه الأنواع من الهجمات.”
أخيرًا ، توصي كوركوران ب صفر ثقة العقلية التي تضيق فتحة الوصول التي يمكن أن تحققها أي هجوم ، بغض النظر عن تطور التكتيكات والتقنيات التي تدعم الذكاء الاصطناعي.
توصي ISG’s Saylors بحق مستمر لمحيط المنظمة باستخدام منصات إدارة سطح الهجوم (ASM) ، وتبني وصيانة استراتيجيات الدفاع في العمق.
أخطاء شائعة لتجنب
أحد الأخطاء الكبيرة هو الاعتقاد بأن الذكاء الاصطناعى التوليدي ليس في أي مكان في المنظمة حتى الآن ، عندما يستخدم الموظفون بالفعل نماذج مفتوحة المصدر. آخر هو الاعتقاد بأن التهديدات المستقلة ليست حقيقية.
يقول واتسون من إيه: “غالبًا ما تحصل الشركات على إحساس زائف بالأمان لأن لديها شركة SOC ، على سبيل المثال ، ولكن إذا لم يتم تحديث التكنولوجيا في SOC في السنوات الثلاث الماضية ، فإن فرصها هي قديمة وتفتقد هجمات”. “[You should] قم بإجراء مراجعة شاملة قدرة على وظيفة عمليات الأمان الخاصة بك وتحديد حالات استخدام الأولوية القصوى لمؤسستك للاستفادة من الذكاء الاصطناعي في الدفاع الإلكتروني. ”
يؤدي الإفراط في الاعتماد على حلول النقاط ، بغض النظر عن قدراتها ، إلى بقع عمياء حيث يمكن للخصوم استغلالها باستخدام تقنيات محسنة AI.
يقول كوركوران: “يتطلب الدفاع عن التهديدات القائمة على الذكاء الاصطناعى ، مثلها مثل أي نظام آخر ، نهج نظام النظم الذي يتضمن دمج العديد من القدرات المستقلة للتهديدات ، وقدرات الاستجابة وعملياتها لإنشاء دفاعات أكثر تعقيدًا وقادرة”. يجب أن يكون لدى المنظمات تقييم المخاطر والضوابط التي تتم مع مراعاة التهديدات المحسنة من الذكاء الاصطناعي. سيكون المقيم المستقل الذي لا يرتبط بأي تقنية أو إطار عمل أفضل للمساعدة في تحديد نقاط الضعف في دفاعات المؤسسة والنظر في حلول العمليات والتكنولوجيا.
يقول Andress ، إن الشركات غالباً ما تقلل من شدة التهديدات التي تدعم الذكاء الاصطناعى ولا تستثمر في الأدوات أو البروتوكولات المناسبة لتحديد المحتملة والحماية من المخاطر المحتملة.
يقول Andress: “وجود الدرابزين الصحيحة في مكانه وفهم مشهد التهديد العام ، مع تدريب الموظفين بشكل صحيح ، يتيح للشركات توقع التهديدات ومعالجتها قبل التأثير على العمل”. “لا تنتظر التهديدات أن تكون الشركات جاهزة. يجب إعداد القادة مع الدفاعات المناسبة لتحديد المخاطر وتخفيفها بسرعة.” يمكن لفرق الأمن [also] يستفيد من Genai ، ويضيف. إنه يمنحنا القدرة على أن نكون استباقيين ، وفهم محتوى بيئتنا بشكل أفضل ، وتوقع ما يمكن أن يفعله الممثلون للتهديد.
Aditya Saxena ، مؤسس No-Code Chatbot Builder PMFM.AIيقول المنظمات إن المؤسسات تخلق دون داع من نقاط الضعف من خلال الاعتماد على الكود الذي تم إنشاؤه من الذكاء الاصطناعي وتنفيذه دون مراجعة.
يقول ساكسينا: “LLMs ليست معصومة ، ونخاطر بتقديم نقاط الضعف عن غير قصد يمكن أن تنزل الأنظمة على نطاق واسع”. بالإضافة إلى ذلك ، يمكن للممثلين السيئين تدريب النماذج حول نقاط الضعف بمهارة. على سبيل المثال ، يمكن أن يكون لدينا نسخة من ديبسيك هذا يفسد الكود عن قصد مع الاستمرار في العمل “.
“حتى العام الماضي ، كنا في الغالب نستخدم الذكاء الاصطناعى كمساعد لتسريع العمل ، ولكن في الآونة الأخيرة ، حيث يصبح Agencic AI أكثر شيوعًا ، يمكن أن نثق في البرامج عن غير قصد ، مثل ديفينمع المعلومات الحساسة ، مثل مفاتيح API أو أسرار الشركة ، لتولي عمليات التطوير والنشر من طرف إلى طرف. ”
يقول أميت تشادا ، الرئيس التنفيذي في الطبيعة المتطورة للتهديد خدمات التكنولوجيا L&T (LTTS).
يقول تشادها: “نصيحتنا واضحة: اعتماد نهج استباقي وذات سيبران التي تحركها الذكاء الاصطناعي ، والاستثمار في أدوات البنية التحتية والتهديدات ، والتعاون مع شركاء التكنولوجيا الموثوق بهم لبناء نظام بيئي رقمي مرن”. “لكن العامل الأكثر أهمية هو العنصر البشري [most] تحدث جرائم الإنترنت بسبب الأخطاء البشرية والأخطاء. لذلك يجب إجراء ورش العمل لجميع الموظفين لتثقيفهم حول الوقاية من الجرائم الإلكترونية والتأكد من أنهم لا يصبحون الوكلاء غير المقصودين للتسرب أو خرق البيانات. في هذه الحالة ، الوقاية من العلاج. ”
تحذر Saylors من ISG من أن المنظمات لا تعطي الأولوية للصيانة الأساسية لمكدس الأمن السيبراني واتخاذ الاحتياطات الأساسية ، مثل إجراء عمليات فحص VM وترقيع القضايا الحرجة على الأقل على الفور.
يقول Saylors: “لقد رأينا أمثلة متعددة من الشركات الكبيرة جدًا التي تتأخر عن سنوات إلى سنوات في الترقيع لأن” فريق التطبيقات لن يسمح لنا بذلك “، أو يقومون بتشغيل إصدارات N-3 من البرامج لأنه من الصعب للغاية الترقية”. “هذه هي المنظمات التي تم اختراقها بالفعل. ستزيد هجمات الذكاء الاصطناعي من سرعة وشدة الضرر إذا أصبحت هدفًا خطيرًا.”
كما يعتقد أن مجالس الإدارة يجب أن تتعلم حول الطبيعة المتقدمة باستمرار للهجمات الإلكترونية التي يتم إنشاؤها بواسطة منصات AI و Genai.
يقول سايرورز: “ابدأ الآن خطة مرونة الكم ، وتأكد من أن لديك نسخًا متعددة من النسخ الاحتياطية القابلة للتغيير” ، ابدأ الآن الآن ، ابدأ الآن ، وابدأ الآن ، والتأكد من أن لديك نسخًا متعددة من النسخ الاحتياطية غير القابلة للتغيير “، يقول” ، إن مجلس الإدارة يتحمل مسؤولية إعطاء الأولوية لتمويل التحول الإلكتروني.