الأمن السيبراني

استخدام التزييف العميق كسلاح في حرب غزة


لقد تم خوض الحروب دائمًا بفكرة أساسية تتمثل في الاستيلاء على قلوب وعقول الجمهور. لقد كانت الدعاية لفترة طويلة سلاحاً في إقناع الناس بأن التصرفات التي ترتكبها دولة أو جماعة ـ وأحياناً الفظائع ـ مقبولة ومبررة.

ومع ذلك، فإن الحرب في غزة دفعت هذا المفهوم إلى مستوى جديد. قامت المجموعات التي تروج لإيديولوجية أو أخرى باستغلال الذكاء الاصطناعي لإنشاء صور ومقاطع فيديو مزيفة يتم تداولها عبر الإنترنت. يقول هاني فريد، الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي وخبير بارز في الطب الشرعي الرقمي والذكاء الاصطناعي: “لقد رأينا عددًا كبيرًا من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي”.

وفي الواقع، أظهرت إحدى الصور التي تم تداولها على نطاق واسع مشجعي كرة القدم في ملعب في مدريد بإسبانيا وهم يحملون العلم الفلسطيني العملاق. تم اعتباره على الفور مزيف من قبل خبراء الطب الشرعي الرقمي. وأظهر مقطع فيديو آخر ما يسمى بـ “ممثل الأزمة” وهو يتظاهر بأنه مصاب بجروح خطيرة في سرير المستشفى في أحد الأيام ويتعافى تمامًا في اليوم التالي. ومع ذلك، الصور أظهر شخصين مختلفين.

من ناحية أخرى، تم رفض الصورة الرسومية لجثة متفحمة – من المفترض أنها طفل – من قبل الكثيرين عبر الإنترنت باعتبارها صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، على الرغم من أن خبراء مثل فريد يقولون إنها حقيقية. على الرغم من أنه ليس من الواضح تمامًا ما إذا كانت هذه الصور الكاذبة والمتلاعب بها تؤثر على الرأي العام، فمن الواضح أن موجات الصدمة تنتشر عبر المجتمع.

متعلق ب:المسك، وتحذير المفوضية الأوروبية، ومستويات “البداية” من المعلومات المضللة

يوضح فريد: “إذا كان هناك أي شيء يمكن أن يكون مزيفًا، فلا يجب أن يكون أي شيء حقيقيًا”. “تتزايد شكوك المستخدمين بشأن كل ما يقرؤونه ويشاهدونه عبر الإنترنت. وهذا يجعل من الصعب التفكير في عالم سريع الحركة ومعقد.

استدعاء الطلقات

إن القصف المستمر للأخبار الكاذبة والصور المزيفة ومقاطع الفيديو المزيفة العميقة يؤثر سلبًا. إن الثقة في وسائل الإعلام الإخبارية ومواقع التواصل الاجتماعي والمؤسسات الأخرى آخذة في الانخفاض. بشكل عام، 68% من البالغين في الولايات المتحدة يقولون ذلك فالأخبار والمعلومات المختلقة تؤثر بشكل كبير على ثقتهم في المؤسسات وأبلغ 63% أن مقاطع الفيديو والصور المزيفة أو المعدلة تؤدي إلى إنشاء قدر كبير من الارتباك المحيطة بالقضايا والأحداث الجارية.

“حتى عدد قليل من المحتوى المزيف يميل إلى تلويث النظام البيئي للمعلومات بأكمله، مما يؤدي إلى وضع علامة على المحتوى الحقيقي على أنه يحتمل أن يكون مزيفًا،” يقول سيوي ليو، الأستاذ في قسم علوم الكمبيوتر والهندسة في جامعة ولاية نيويورك في بوفالو ومدير برنامج مختبر الطب الشرعي في UB Media. بالإضافة إلى ذلك، “يمكن لأي شخص أن يدعي أن وسائل الإعلام الحقيقية مزيفة إذا لم تكن متسقة مع آرائه”.

تشتمل مولدات الذكاء الاصطناعي التي تنتج صورًا ومقاطع فيديو مزيفة على تطبيقات مفتوحة المصدر مثل Midjourney وStable Diffusion وDeepSwap وOpen AI’s DALL-E. ويقول فريد إن المستنسخات الصوتية المستخدمة في التسجيلات الصوتية المزيفة تأتي من شركات مثل ElevenLabs، في حين أن الأدوات القائمة على الفيديو المستخدمة لإنشاء التزييف العميق مستمدة من مجموعة متنوعة من أدوات الذكاء الاصطناعي مفتوحة المصدر.

متعلق ب:الاتجاه الصعودي لتقنية Deepfake

في حين أن القدرة على إنشاء محتوى كاذب ومقنع تتصاعد، فإن الإبلاغ عن المحتوى ومنع انتشاره يستغرق وقتًا طويلاً وصعبًا. عادةً ما يقوم خبراء الطب الشرعي بفحص الصور ومقاطع الفيديو بحثًا عن آثار – ظلال غير طبيعية، وأشكال وخطوط غير عادية، وعناصر أخرى غير صحيحة.

قام فريد، على سبيل المثال، بتطوير مجموعة متخصصة من الأدوات التي تعمل على أتمتة أجزاء من عملية التحليل، على الرغم من أن العديد من الصور ومقاطع الفيديو تتطلب فحصًا يدويًا. يقول فريد: “لا توجد أدوات مثالية، ولكن عندما يتم دمجها، فإنها تكون فعالة إلى حد ما في اكتشاف الصور المزيفة والمعدلة”.

الصورة هي كل شيء

لا شك أن الحرب بين إسرائيل وحماس تشكل ببساطة أحدث ساحة معركة إيديولوجية في حرب المعلومات المستمرة. لقد تم بالفعل استخدام الصور المزيفة التأثير على الرأي العام في الحرب في أوكرانيا، وأصبحت التزييفات العميقة شائعة الآن في سياسة, عمل، وما بعدها. في الواقع، قامت شركة فوريستر بذلك حذر أصبحت الشركات التي تقوم بعمليات احتيال عميقة تتضمن الاحتيال والتلاعب بأسعار الأسهم والسمعة والعلامة التجارية ورفاهية الموظفين تهديدات واقعية.

إن سياسات الإشراف المتساهلة والتصنيف غير الصحيح في كثير من الأحيان على مواقع التواصل الاجتماعي مثل X (المعروف سابقًا باسم Twitter) لم تجعل الأمور أسهل. يقول خبراء الطب الشرعي الرقمي إنه من شبه المستحيل مراقبة المواقع والخدمات ومواكبة الهجوم المستمر للصور المزيفة – التي تنشر عن قصد أو عن غير قصد من قبل نقاد وسائل الإعلام، والمؤثرين على وسائل التواصل الاجتماعي، والمحاربين الثقافيين الذين يتطلعون إلى التلاعب بالتفكير.

متعلق ب:ChatGPT: مؤلف بلا أخلاق

الأدوات المتاحة للعامة والتي تعد بالتعرف على الصور ومقاطع الفيديو المزيفة تؤدي إلى نتائج مختلطة. على سبيل المثال، كاشف صور مجاني يعمل بالذكاء الاصطناعي من شركة تدعى Optic أو AI أو Not, المسمى صورة جثة محترقة من الحرب تم إنشاؤها بواسطة الذكاء الاصطناعي، لكن تحليل فريد وجد أنه لا يظهر أي علامات على أنه مزيف. ويقول إن أدوات الكشف عن التزييف العميق المتوفرة على نطاق واسع غالبًا ما تفشل، وهي عادةً لا تقدم أي فكرة عن كيفية التوصل إلى القرارات.

يقول ليو إن الوصول إلى طرق كشف أكثر تقدمًا أمر صعب. يستخدم أحد أساليب الكشف التي يدرسها هو وباحثون آخرون التعلم الآلي لتحديد مجموعة فرعية مشبوهة من الصور من مجموعة من مقاطع الفيديو والصور والصوت. ويقول إن هذا النهج يعرض حاليًا معدل دقة يصل إلى 90% – على الرغم من أن المعالجة اللاحقة والضغط اللذين تستخدمهما مواقع التواصل الاجتماعي يتسببان في انخفاض الرقم.

يقول ليو إن تقنية العلامات المائية الرقمية يمكن أن تساعد أيضًا في تحديد الصور المزيفة والتخفيف من انتشارها، على الرغم من أنه يمكن التلاعب بالعلامات المائية أو إتلافها أو إزالتها عمدًا.

لا تزال هناك فكرة أخرى، والتي يمكن أن تكون مفيدة لمنافذ الإعلام القائمة، وهي استخراج الميزات الإحصائية – التوقيعات الفريدة المضمنة في البيانات الأساسية – من الصور ومقاطع الفيديو. يمكن تخزين هذه البيانات في blockchain في السحابة. ومن الممكن بعد ذلك التحقق من صحة الصورة أو الفيديو كما يظهر في مواقع مختلفة.

على خط النار

في هذه الأثناء، تستمر الحرب بين إسرائيل وحماس، وتتزايد عمليات التزييف العميق الجديدة مع مقاطع الفيديو الحقيقية – رغم أنها في بعض الأحيان من حدث أو حرب مختلفة. وعلى نحو متزايد، يتعين على الخبراء فك رموز الأحداث من خلال البحث العكسي عن الصور وطرق أخرى.

في النهاية، يشعر ليو بالقلق من أنه قبل أن يتمكن المجتمع من الوصول إلى طرق موثوقة لتحديد التزييف العميق، قد نصل إلى نقطة تحول حيث يتجاوز حجم المحتوى المزيف قدرة المجتمع على اكتشافه ونشره ويصبح الخط الفاصل بين الواقع والخيال غير واضح تمامًا. على سبيل المثال، قامت شركة Accrete للذكاء الاصطناعي بالاشتراك مع Bloomberg مؤخرًا ذكرت أن خمسة حسابات متحالفة مع حماس حاولت تشويه مقاطع الفيديو الفعلية للحرب.

ويختتم ليو قائلاً: “في المستقبل غير البعيد، قد يتمكن المستخدمون العاديون من الوصول إلى أدوات أكثر سهولة في الاستخدام وجاهزة للتعامل مع الوسائط كما يستخدمون Photoshop لتحرير الصور اليوم. قد تصبح الهجمات أكثر تفصيلاً ومحددة وربما أكثر فعالية.





Source link

زر الذهاب إلى الأعلى