أخبار التقنية

أهم المخاطر السيبرانية الخاصة بالانتخابات في المملكة المتحدة


ومن المتوقع أن تكون المعلومات المضللة من بين أكبر المخاطر السيبرانية في الانتخابات في عام 2024.

أندرو بروكس | مصدر الصورة | صور جيتي

من المتوقع أن تواجه بريطانيا وابلًا من الهجمات السيبرانية وحملات التضليل المدعومة من الدولة مع توجهها إلى صناديق الاقتراع في عام 2024، ويشكل الذكاء الاصطناعي خطرًا رئيسيًا، وفقًا لخبراء الإنترنت الذين تحدثوا إلى CNBC.

وسيصوت البريطانيون في الثاني من مايو في الانتخابات المحلية، ومن المتوقع إجراء انتخابات عامة في النصف الثاني من هذا العام، على الرغم من أن رئيس الوزراء البريطاني ريشي سوناك لم يلتزم بعد بموعد محدد.

وتأتي الانتخابات في الوقت الذي تواجه فيه البلاد مجموعة من المشاكل بما في ذلك أزمة تكلفة المعيشة والانقسامات الصارخة الهجرة واللجوء.

وقال تود ماكينون، الرئيس التنفيذي لشركة أمن الهوية Okta، لشبكة CNBC عبر البريد الإلكتروني: “مع تصويت معظم مواطني المملكة المتحدة في مراكز الاقتراع في يوم الانتخابات، أتوقع ظهور غالبية مخاطر الأمن السيبراني في الأشهر التي سبقت اليوم نفسه”. .

لن تكون المرة الأولى.

في عام 2016، الولايات المتحدة الانتخابات الرئاسية و التصويت على خروج بريطانيا من الاتحاد الأوروبي وقد تبين أنهما قد تعطلتا بسبب المعلومات المضللة التي تمت مشاركتها على منصات التواصل الاجتماعي، والتي يُزعم أنها من قبل مجموعات تابعة للدولة الروسية، على الرغم من أن موسكو تنفي هذه الادعاءات.

منذ ذلك الحين قامت الجهات الفاعلة الحكومية هجمات روتينية في بلدان مختلفة للتلاعب بنتائج الانتخابات، بحسب خبراء في مجال الإنترنت.

وفي الوقت نفسه، الأسبوع الماضي، المملكة المتحدة زعمت أن مجموعة القرصنة الصينية التابعة للدولة APT 31 حاولت الوصول إلى حسابات البريد الإلكتروني للمشرعين في المملكة المتحدةلكنه قال إن مثل هذه المحاولات باءت بالفشل. وفرضت لندن عقوبات على أفراد صينيين وشركة تكنولوجيا في ووهان يعتقد أنها واجهة لـ APT 31.

وحذت الولايات المتحدة وأستراليا ونيوزيلندا حذوها بفرض عقوبات عليها. ونفت الصين مزاعم القرصنة التي ترعاها الدولة ووصفتها بأنها “لا أساس لها من الصحة”.

مجرمو الإنترنت يستخدمون الذكاء الاصطناعي

ويتوقع خبراء الأمن السيبراني أن تتدخل الجهات الخبيثة في الانتخابات المقبلة بعدة طرق – ليس أقلها من خلال التضليل، والذي من المتوقع أن يكون أسوأ هذا العام بسبب الاستخدام الواسع النطاق للذكاء الاصطناعي.

يقول الخبراء إن الصور ومقاطع الفيديو والصوت الاصطناعية التي يتم إنشاؤها باستخدام رسومات الكمبيوتر وطرق المحاكاة والذكاء الاصطناعي – والتي يشار إليها عادة باسم “التزييف العميق” – ستكون أمرًا شائعًا حيث يصبح من الأسهل على الأشخاص إنشاؤها.

الهجمات السيبرانية المدعومة من الدولة آخذة في الارتفاع هذا العام: DXC Technology

وأضاف ماكينون من شركة Okta: “من المرجح أن تستخدم الجهات الفاعلة التابعة للدولة القومية ومجرمي الإنترنت الهجمات القائمة على الهوية المدعومة بالذكاء الاصطناعي مثل التصيد الاحتيالي والهندسة الاجتماعية وبرامج الفدية وتسويات سلسلة التوريد لاستهداف السياسيين وموظفي الحملات الانتخابية والمؤسسات ذات الصلة بالانتخابات”.

“نحن على يقين أيضًا من رؤية تدفق للمحتوى القائم على الذكاء الاصطناعي والروبوتات الناتج عن جهات التهديد لنشر المعلومات الخاطئة على نطاق أوسع مما رأيناه في الدورات الانتخابية السابقة.”

وقد دعا مجتمع الأمن السيبراني إلى زيادة الوعي بهذا النوع من المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي، بالإضافة إلى التعاون الدولي للتخفيف من مخاطر مثل هذه الأنشطة الضارة.

أعلى مخاطر الانتخابات

وقال آدم مايرز، رئيس عمليات مكافحة الخصوم في شركة CrowdStrike للأمن السيبراني، إن المعلومات المضللة المدعومة بالذكاء الاصطناعي تمثل خطرًا كبيرًا على الانتخابات في عام 2024.

وقال مايرز لـ CNBC: “في الوقت الحالي، يمكن استخدام الذكاء الاصطناعي التوليدي للأذى أو للخير، ولذا نرى كلا التطبيقين يتم اعتمادهما بشكل متزايد كل يوم”.

من المرجح جدًا أن تقوم الصين وروسيا وإيران بعمليات تضليل وتضليل ضد مختلف الانتخابات العالمية بمساعدة أدوات مثل الذكاء الاصطناعي التوليدي، وفقًا لأحدث تقرير سنوي عن التهديدات الصادرة عن Crowdstrike.

وقال مايرز لشبكة CNBC: “هذه العملية الديمقراطية هشة للغاية”. “عندما تبدأ في النظر إلى كيف يمكن لدول قومية معادية مثل روسيا أو الصين أو إيران الاستفادة من الذكاء الاصطناعي التوليدي وبعض التقنيات الأحدث لصياغة الرسائل واستخدام التزييف العميق لإنشاء قصة أو رواية مقنعة للناس لقبولها، خاصة عندما يكون لدى الناس بالفعل هذا النوع من التحيز التأكيدي، فإن الأمر خطير للغاية.”

وتتمثل المشكلة الرئيسية في أن الذكاء الاصطناعي يعمل على تقليل الحواجز التي تحول دون دخول المجرمين الذين يتطلعون إلى استغلال الأشخاص عبر الإنترنت. لقد حدث هذا بالفعل في شكل رسائل البريد الإلكتروني الاحتيالية التي تم إنشاؤها باستخدام يمكن الوصول إليها بسهولة أدوات الذكاء الاصطناعي مثل ChatGPT.

يقوم المتسللون أيضًا بتطوير هجمات أكثر تقدمًا – وشخصية – من خلال تدريب نماذج الذكاء الاصطناعي على بياناتنا الخاصة المتاحة على وسائل التواصل الاجتماعي، وفقًا لدان هولمز، المتخصص في منع الاحتيال في شركة التكنولوجيا التنظيمية Feedzai.

“يمكنك تدريب نماذج الذكاء الاصطناعي الصوتية تلك بسهولة شديدة… من خلال التعرض لوسائل التواصل الاجتماعي [media]”، قال هولمز لشبكة CNBC في مقابلة. “إنه كذلك [about] الحصول على هذا المستوى العاطفي من المشاركة والتوصل إلى شيء إبداعي حقًا.”

في سياق الانتخابات، تم نشر مقطع صوتي مزيف تم إنشاؤه بواسطة الذكاء الاصطناعي لزعيم حزب العمال المعارض، كير ستارمر، وهو يسيء معاملة موظفي الحزب، على منصة التواصل الاجتماعي X في أكتوبر 2023. وقد حصد المنشور ما يصل إلى 1.5 مليون مشاهدة. وفقا لتصحيح الحقيقة الخيرية Full Fact.

إنه مجرد مثال واحد على العديد من التزييف العميق الذي أثار قلق خبراء الأمن السيبراني بشأن ما سيأتي مع اقتراب المملكة المتحدة من الانتخابات في وقت لاحق من هذا العام.

الانتخابات اختبار لعمالقة التكنولوجيا

يمكن تنفيذ تدابير التصدي للتهديد السيبراني قبل الانتخابات النصفية: محلل

ومع ذلك، أصبحت تقنية التزييف العميق أكثر تقدمًا بكثير. وبالنسبة للعديد من شركات التكنولوجيا، فإن السباق للتغلب عليها يدور الآن حول مكافحة النار بالنار.

وقال مايك توشين، الرئيس التنفيذي لشركة Onfido، لشبكة CNBC في مقابلة العام الماضي: “لقد تحولت تقنية التزييف العميق من كونها شيئًا نظريًا إلى كونها حية في الإنتاج اليوم”.

“هناك الآن لعبة القط والفأر حيث أصبحت “الذكاء الاصطناعي مقابل الذكاء الاصطناعي” – إن استخدام الذكاء الاصطناعي للكشف عن التزييف العميق وتخفيف تأثيره على عملائنا هو المعركة الكبرى الآن.”

يقول خبراء الإنترنت إنه أصبح من الصعب معرفة ما هو حقيقي، ولكن قد تكون هناك بعض الدلائل على أن المحتوى يتم التلاعب به رقميًا.

يستخدم الذكاء الاصطناعي المطالبات لإنشاء النصوص والصور ومقاطع الفيديو، لكنه لا يقوم بذلك دائمًا بشكل صحيح. على سبيل المثال، إذا كنت تشاهد مقطع فيديو لعشاء تم إنشاؤه بواسطة الذكاء الاصطناعي، واختفت الملعقة فجأة، فهذا مثال على خلل في الذكاء الاصطناعي.

وأضاف ماكينون من شركة Okta: “سنرى بالتأكيد المزيد من التزييف العميق طوال العملية الانتخابية، لكن الخطوة السهلة التي يمكننا جميعًا اتخاذها هي التحقق من صحة شيء ما قبل مشاركته”.



Source link

زر الذهاب إلى الأعلى