5 أشياء يجب علينا القيام بها لمكافحة الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي
إن تدابير الأمن السيبراني التي تم تطويرها بعناية على مدى سنوات لم تعد كافية لحماية المستهلكين والشركات.
لماذا؟ لأن العديد من الهجمات المعقدة والجريئة التي تهدد هوياتنا ومواردنا المالية حاليًا مدعومة بالذكاء الاصطناعي.
لا يتم استخدام نماذج اللغة الكبيرة (LLM) لخداع الضحايا غير المطمئنين فحسب، بل يتم نشرها بشكل متزايد للكشف عن نقاط الضعف المحتملة.
بحث من أفاست عروض 90% من التهديدات التي تم الكشف عنها في الربع الأول من عام 2024 تضمنت الهندسة الاجتماعية إلى حد ما، مع ارتفاع مستوى الصوت والفيديو المزيف الذي يتم إنشاؤه باستخدام الذكاء الاصطناعي مما يجعل من السهل بشكل متزايد تضليل الجمهور.
بالإضافة إلى كل هذا، OpenAI وقد اعترف أن أنظمتها تم استخدامها من قبل جهات ضارة تابعة للدولة في الصين وكوريا الشمالية وروسيا وإيران في محاولات لإنشاء محتوى لحملات التصيد وإنشاء برامج ضارة يمكنها تجاوز الكشف.
إن التصدي للتهديد المتزايد المتمثل في الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي يشكل مسألة ملحة. فقد أصبحت برامج الماجستير في القانون أكثر تقدمًا يومًا بعد يوم، في حين يستمر عدد الأرواح المدمرة في النمو.
1. استهلاك حقوق الطبع والنشر في برامج الماجستير في القانون.
حتى الآن، كانت الطريقة السهلة نسبيًا للكشف عن عمليات الاحتيال والرسائل المزيفة هي البحث عن اللغة الإنجليزية المكسورة أو العبارات غير المعتادة التي لا تستخدمها الشركة عادةً. لكن قدرة الذكاء الاصطناعي على كتابة نثر نظيف ومحاكاة نبرة الصوت المستخدمة من قبل العلامات التجارية الكبرى، تجعل تحقيق ذلك أكثر صعوبة. بحث من Check Point يظهر بقوة كيف ساعدت OpenAI بالفعل في إنشاء كود لسلالات جديدة من البرامج الضارة التي يمكنها سرقة الملفات وتشفيرها.
في الوقت الحالي، هناك عدد كبير من الدعاوى القضائية قيد الإعداد وسط مزاعم بأن منصات الذكاء الاصطناعي الرئيسية تم تدريبها على محتوى محمي بحقوق الطبع والنشر دون موافقة. وفي حين قد يكون الأوان قد فات لعكس هذا الضرر، يجب على البلدان في جميع أنحاء العالم أن تتكاتف لوضع قواعد تنظيمية أكثر صرامة للإشراف على التنمية الأخلاقية في المستقبل.
أما بالنسبة للمستخدمين النهائيين، فمن الأهمية بمكان أن يتوخوا الحذر وأن يتعاملوا مع جميع رسائل البريد الإلكتروني بقدر كبير من السخرية. هل هناك رسالة تزعم أنها من شركة تطلب منك شيئًا غير عادي؟ هل يتطابق عنوان البريد الإلكتروني والنطاق؟
2. انتحال الشخصية بواسطة الذكاء الاصطناعي.
تُستخدم تقنية Deepfakes الآن على نطاق واسع لانتحال شخصيات أشخاص حقيقيين – بما في ذلك الرؤساء التنفيذيين – لخداع الضحايا لحملهم على الكشف عن معلومات حساسة أو السماح بمعاملات احتيالية. حالة واحدة جديرة بالملاحظة وفي وقت سابق من هذا العام، قام موظف مالي في شركة دولية في هونج كونج بإطلاق سراح 25 مليون دولار لمحتالين، من بينهم شخص انتحل صفة المدير المالي للشركة في مكالمة فيديو.
هناك طرق للتخفيف من بعض المخاطر المرتبطة بالتزييف العميق. ووفقًا لمكتب التحقيقات الفيدرالي، تتضمن هذه الطرق التحقق من صحة الاتصالات الرقمية، وتثقيف نفسك حول أحدث التكتيكات التي يستخدمها مجرمو الإنترنت، وتنفيذ المصادقة متعددة العوامل.
3. سرقة الهوية.
لقد نشأ عدد من التطورات المثيرة للقلق فيما يتعلق بكيفية استخدام الذكاء الاصطناعي لسرقة الهويات. على سبيل المثال، تم استخدام بعض أدوات إنشاء الصور لإنشاء مستندات مصطنعة، وجمع البيانات الحقيقية والخيالية لإنشاء أسماء مستعارة مزيفة. ومن الممكن بعد ذلك استخدام هذا للالتفاف على تدابير التحقق الضعيفة التي تطبقها بعض الشركات.
كما شهدنا زيادة في عدد أنظمة التعرف على الوجه التي تم التلاعب بها من خلال الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يمنح المحتالين إمكانية الوصول غير المصرح به إلى الحسابات وحرية الوصول إلى الأموال. أحد مراسلي مجموعة فايس ميديا تم إدارتها بنجاح للدخول إلى حسابه الخاص باستخدام نسخة الذكاء الاصطناعي من صوته.
بحث أجرته شركة Sumsub تم تعقبه لقد تبين مؤخرًا أن أكثر من مليوني محاولة احتيال عبر 224 دولة و28 صناعة قد شهدت ارتفاعًا بمقدار عشرة أضعاف في عدد عمليات التزييف العميق التي تم اكتشافها. وهنا يمكن أن يحدث استخدام بيانات الاعتماد التي لا تتطلب معرفة صفرية فرقًا هائلاً في المعركة ضد الذكاء الاصطناعي. يمنح هذا التشفير المستهلك الشرعي القدرة على إثبات هويته الحقيقية، دون الكشف عن تفاصيل محددة، على سبيل المثال، التحقق من أنك أكبر من 18 عامًا، دون تحديد تاريخ ميلاد دقيق.
4. تحدي التحقق من البيانات.
لقد ثبت أن التمييز بين ما هو حقيقي وما هو غير حقيقي أمر صعب للغاية بالنسبة للمستهلكين العاديين. إن انتشار الذكاء الاصطناعي لديه القدرة على جعل المعلومات المضللة منتشرة على الإنترنت. ولتوضيح ما نعنيه، فكر في هذا: يذاكر من جامعة واترلو، والتي وجدت أن 61% فقط من المستجيبين يمكنهم التمييز بنجاح بين الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأشخاص والصور الفوتوغرافية الحقيقية.
قد يكون أحد الحلول المحتملة هو أنظمة تسمح لأي شخص بتتبع مصدر أي محتوى رقمي ــ بما في ذلك مصدره، ومتى وكيف تم إنشاؤه، وما إذا كانت هناك أي تعديلات على طول الطريق. ومن شأن البيانات الوصفية المضمنة في ملفات الوسائط الرقمية أن تساعد في تحقيق هذه الغاية، إلى جانب التوقيعات الرقمية، والعلامات المائية، وتكنولوجيا البلوك تشين.
5. النهج المتعدد الجوانب هو المفتاح.
تحتاج شركات التكنولوجيا والحكومات وباحثو الأمن إلى التعاون فيما بينهم للتوصل إلى أفضل نهج يمكن اتباعه، والعمل باستمرار مع بعضهم البعض مع ظهور تهديدات جديدة. كما يمكن للذكاء الاصطناعي أن يكون قوة من أجل الخير، وإذا تم تدريبه للمساعدة في اكتشاف التزييف العميق والبرامج الضارة ورسائل البريد الإلكتروني الاحتيالية.
ولكن الأهم من أي شيء آخر هو أن يصبح الجمهور على دراية بكيفية إساءة استخدام الذكاء الاصطناعي، والعواقب المحتملة في حالة الوقوع ضحية لهجوم.