تشكل خدمات الذكاء الاصطناعي المزيفة العميقة على Telegram خطرًا على الانتخابات
من المرجح أن تطلق التكنولوجيا المزيفة العميقة التي يتم توزيعها من خلال خدمة الرسائل Telegram وغيرها من المنصات العنان لسيل من المعلومات المضللة التي يولدها الذكاء الاصطناعي، حيث يستعد ثلاثة مليارات شخص للتصويت في الانتخابات في جميع أنحاء العالم على مدى العامين المقبلين.
حدد محللو الأمن أكثر من 400 قناة تروج لخدمات مزيفة عميقة على تطبيق Telegram Messenger، بدءًا من الروبوتات الآلية التي تساعد المستخدمين على إنشاء مقاطع فيديو مزيفة عميقة إلى الأفراد الذين يعرضون إنشاء مقاطع فيديو مزيفة مخصصة.
كما تم تحديد أكثر من 3000 مستودع لتكنولوجيا التزييف العميق على أكبر منصة على شبكة الإنترنت لاستضافة التعليمات البرمجية والمشاريع التعاونية، جيثببحسب بحث أجرته شركة أمنية نقطة التفتيش.
كبير تقنيي تشيك بوينت، عوديد فعنونو، قال لـ Computer Weekly: “هذا هو الوقت المناسب لرفع العلم والقول إنه سيكون هناك مليارات من الأشخاص يصوتون في الانتخابات، وأن هناك بنية تحتية مزيفة ضخمة وعميقة وهي تنمو”.
لا تترك الخدمات المزيفة العميقة أي آثار رقمية. وأضاف أن هذا يجعل من الصعب السيطرة على التزييف العميق من خلال التدابير التكنولوجية مثل إدراج عناوين IP في القائمة السوداء أو تحديد التوقيعات الرقمية الخاصة بها.
لقد خلقت الأدوات المزيفة العميقة، جنبًا إلى جنب مع شبكات الروبوتات والحسابات المزيفة والخدمات المجهولة، “نظامًا بيئيًا للخداع”.
تتراوح أسعار التزييف العميق من دولارين للفيديو إلى 100 دولار للمسلسل، مما يجعل من الممكن للجهات الفاعلة السيئة إنشاء محتوى خادع – والذي يمكن استخدامه للتأثير على الانتخابات أو زعزعة استقرارها المقرر إجراؤها في البلدان الأكثر سكانًا في العالم على مدار العام. الأشهر الـ 12 المقبلة – بسعر رخيص وبكميات كبيرة.
وقال فعنونو إنه من الممكن استخدام خدمات الذكاء الاصطناعي المعلن عنها على GitHub وTelegram لإنشاء فيديو مزيف عميق من صورة أو مسار صوتي مزيف عميق من مقتطف من صوت شخص ما.
وقد أثيرت مخاوف أخرى بشأن التلاعب بالانتخابات عندما أصدرت شركة OpenAI برنامج Sora الخاص بها فيديو AI في فبراير. يمكن للبرنامج إنشاء مقاطع فيديو ذات صور واقعية من خلال المطالبات النصية، مما يجعل إنتاج مقاطع فيديو عالية الجودة أمرًا سهلاً للغاية.
استنساخ الصوت
كما تشكل تكنولوجيا استنساخ الصوت – التي يمكنها التعرف على خصائص صوت الهدف، بما في ذلك طبقة الصوت والنبرة وأسلوب التحدث، لعمل مقاطع صوتية مزيفة – خطرًا أيضًا.
يعد إنتاج التزييف العميق للصوت أسهل بكثير من إنتاج التزييف العميق للفيديو، والذي يتطلب معالجة معقدة للبيانات المرئية.
تم تداول مقاطع صوتية مزيفة لزعيم حزب العمال كير ستارمر في المملكة المتحدة قبل مؤتمر حزب العمال في أكتوبر 2023 مباشرة. يزعم أنه لإظهار زعيم الحزب أساء إلى الموظفين وقال إنه يكره ليفربول الذي استضاف مؤتمر حزب العمال.
وفي يناير 2024، الناخبون في نيو هامبشاير تلقى مكالمات هاتفية من مزيف عميق نسخة صوتية للرئيس جو بايدن. في ظاهر محاولة منع الناس من التصويت وفي الانتخابات التمهيدية في نيو هامبشاير، حث تسجيل بايدن المزيف الناخبين على البقاء في منازلهم.
يعد استنساخ الصوت رخيصًا، حيث تبدأ الأسعار من 10 دولارات شهريًا، وترتفع إلى عدة مئات من الدولارات شهريًا للحصول على ميزات أكثر تقدمًا. تكلفة الصوت الناتج عن الذكاء الاصطناعي منخفضة تصل إلى 0.006 دولار في الثانية.
معلومات مضللة شخصية
ديريك ميتشلسونوقال كبير مسؤولي أمن المعلومات العالمي في Check Point ومستشار الأمن السيبراني للحكومة الاسكتلندية، إن الذكاء الاصطناعي سيتم استخدامه بشكل متزايد لاستهداف الأشخاص بأخبار مزيفة مصممة خصيصًا لملفاتهم الشخصية واهتماماتهم الشخصية المستمدة من منشورات وسائل التواصل الاجتماعي.
سيسمح الذكاء الاصطناعي للأشخاص الذين يحاولون التأثير على الانتخابات بالذهاب إلى أبعد من ذلك من خلال استهداف اتصالات الفرد على وسائل التواصل الاجتماعي بمعلومات مضللة ومضللة.
وهذا يعني أن الأهداف ستتأثر بشكل مباشر بالمشاركات التي يتلقونها في خلاصات وسائل التواصل الاجتماعي الخاصة بهم وتتأثر بشكل غير مباشر بالأشخاص الذين يعرفونهم ويشاركون محتوى مخادعًا.
هل يستطيع الذكاء الاصطناعي سرقة الانتخابات؟ لا، لا أعتقد ذلك. هل يمكن أن يؤثر على الانتخابات؟ وقال ميتشلسون: “ليس هناك شك في أن جميع الانتخابات التي سنجريها هذا العام في جميع أنحاء العالم ستتأثر بالأخبار الكاذبة”.
يمكن للذكاء الاصطناعي أن يزعزع استقرار الحكومات
وحذر المنتدى الاقتصادي العالمي في دافوس في يناير الماضي من ذلك تعد المعلومات المضللة والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي واحدة من أكبر المخاطر قصيرة المدى التي تواجه الاقتصادات.
ديريك ميتشلسون، نقطة تفتيش
كارولينا كلينت، المدير التجاري لأوروبا في شركة مارش ماكلينان ومساهمة في المنتدى الاقتصادي العالمي تقرير المخاطر العالمية 2024، قال لـ Computer Weekly إن انتشار المعلومات المضللة والمعلومات الخاطئة يمكن أن يزعزع استقرار الحكومات المنتخبة شرعياً.
وقالت: “بدأ الناس يدركون أن هناك الكثير من التأثير هنا، والكثير من التأرجح في الرأي العام، والكثير من الجذب والدفع فيما يتعلق بما يقرر الناخبون الذهاب إليه”. “وبمجرد جمع النتائج، سيكون هناك ادعاء مشروع بأن هذه الحكومة لم يتم انتخابها بشكل نزيه”.
الكشف عن الشامات العميقة
لجنة الاتصالات الفيدرالية الأمريكية حظرت المكالمات الروبوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في فبراير 2024 في أعقاب تسجيل بايدن المزيف العميق المستخدم في نيو هامبشاير.
ومع ذلك، فإن تحديد التزييف العميق أمر صعب. وبحسب فعنونو، فإن الخدمات المزيفة العميقة المقدمة على Telegram مصممة للعمل في “صناديق حماية” مغلقة لا تترك بصمات رقمية يمكن تتبعها.
بمجرد تحميل التزييف العميق على إحدى منصات التواصل الاجتماعي، مثل Facebook أو Instagram، تقوم المنصة بتغليف التزييف العميق في كود الكمبيوتر الخاص بها. وقال إن هذا يجعل من المستحيل إجراء هندسة عكسية وفك تشفير البيانات الوصفية الأصلية التي من شأنها أن تشير إلى أصلها وشرعيتها.
ومن الناحية العملية، يعني هذا أن خدمات وسائل التواصل الاجتماعي ستكون، سواء أرادت ذلك أم لا، خط الدفاع الأمامي ضد التزييف العميق.
وقال فعنونو: “المنصات تأخذ التزييف العميق وتسرعه حتى تتمكن من الوصول إلى ملايين أو آلاف الملايين من الأشخاص في الوقت المناسب، لذا فإن عنق الزجاجة من وجهة نظر تكنولوجية هو المنصة”.
العلامات المائية الرقمية
يعد فرض العلامات المائية الرقمية لتحديد المحتوى الناتج عن الذكاء الاصطناعي أحد الحلول، ولكنه ليس حلاً مضمونًا، حيث من الممكن إزالة العلامات المائية الرقمية عن طريق ضغط صورة مزيفة عميقة.
وقال ميشيلسون إن شركات التكنولوجيا ستحتاج إلى العمل مع خبراء إنفاذ القانون والأمن السيبراني لتطوير طرق لاكتشاف وتحييد التزييف العميق.
وفي الوقت نفسه، ستحتاج الحكومات وشركات التكنولوجيا إلى تثقيف الناس، من خلال حملات التوعية العامة، بالمهارات اللازمة للتعرف على التزييف العميق ومحاولات التضليل.