التزييفات الانتخابية قد تقوض مصداقية المؤسسات: موديز
مع بدء موسم الانتخابات وتطور الذكاء الاصطناعي بسرعة، أصبح التلاعب بالذكاء الاصطناعي في الإعلانات السياسية قضية تثير قلقًا أكبر في السوق والاقتصاد. وحذر تقرير جديد صادر عن وكالة موديز يوم الأربعاء من أن الذكاء الاصطناعي التوليدي والتزييف العميق من بين قضايا نزاهة الانتخابات التي قد تشكل خطرًا على مصداقية المؤسسات الأمريكية.
وكتب نائب الرئيس المساعد والمحلل جريجوري سوبيل ونائب الرئيس الأول ويليام فوستر في وكالة موديز: “من المرجح أن تكون الانتخابات متقاربة، مما يزيد من المخاوف من إمكانية نشر عمليات التضليل العميق باستخدام الذكاء الاصطناعي لتضليل الناخبين وتفاقم الانقسام وزرع الفتنة”. “إذا نجحت، يمكن لوكلاء التضليل التأثير على الناخبين والتأثير على نتائج الانتخابات وفي النهاية التأثير على صنع السياسات، الأمر الذي من شأنه أن يقوض مصداقية المؤسسات الأمريكية”.
كثفت الحكومة جهودها لمكافحة التزييف العميق. في 22 مايو، أعلنت رئيسة لجنة الاتصالات الفيدرالية جيسيكا روزينورسيل اقترح قاعدة جديدة وهذا من شأنه أن يتطلب من الإعلانات السياسية التلفزيونية والفيديو والإذاعية الكشف عما إذا كانت تستخدم محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. وقد أعربت لجنة الاتصالات الفيدرالية عن قلقها بشأن استخدام الذكاء الاصطناعي في إعلانات دورة الانتخابات هذه، حيث أشار روزينورسيل إلى المشكلات المحتملة المتعلقة بالتزوير العميق والمحتوى المتلاعب به الآخر.
كانت وسائل التواصل الاجتماعي خارج نطاق لوائح لجنة الاتصالات الفيدرالية، لكن لجنة الانتخابات الفيدرالية تدرس أيضًا قواعد الكشف عن الذكاء الاصطناعي على نطاق واسع والتي من شأنها أن تمتد إلى كافة المنصات. في رسالة إلى روزينورسيلوشجعت لجنة الاتصالات الفيدرالية على تأجيل قرارها إلى ما بعد الانتخابات لأن تغييراتها لن تكون إلزامية عبر الإعلانات السياسية الرقمية. وأضافوا أنه قد يربك الناخبين بأن الإعلانات عبر الإنترنت بدون الإفصاحات لا تحتوي على الذكاء الاصطناعي حتى لو كانت تحتوي عليه.
ورغم أن اقتراح لجنة الاتصالات الفيدرالية ربما لا يشمل وسائل التواصل الاجتماعي بشكل مباشر، فإنه يفتح الباب أمام هيئات أخرى قادرة على تنظيم الإعلانات في العالم الرقمي مع تحرك الحكومة الأميركية لتصبح معروفة كمنظم قوي لمحتوى الذكاء الاصطناعي. وربما تمتد هذه القواعد لتشمل المزيد من أنواع الإعلانات.
وقال دان إيفز، المدير الإداري لشركة ويدبوش للأوراق المالية وكبير المحللين في مجال الأسهم: “سيكون هذا حكماً رائداً من شأنه أن يغير الإفصاحات والإعلانات في وسائل الإعلام التقليدية لسنوات قادمة حول الحملات السياسية. والقلق هنا هو أنه لا يمكنك إعادة المارد إلى القمقم، وهناك العديد من العواقب غير المقصودة لهذا الحكم”.
وقد تبنت بعض منصات التواصل الاجتماعي بالفعل نوعًا ما من الإفصاح عن المعلومات باستخدام الذكاء الاصطناعي قبل اللوائح التنظيمية. على سبيل المثال، تتطلب Meta الإفصاح عن المعلومات باستخدام الذكاء الاصطناعي لجميع إعلاناتها، وتحظر جميع الإعلانات السياسية الجديدة في الأسبوع الذي يسبق انتخابات نوفمبر. وتتطلب Google من جميع الإعلانات السياسية التي تحتوي على محتوى معدّل “يصور بشكل غير أصيل أشخاصًا أو أحداثًا حقيقية أو واقعية” أن تكون لديها إفصاحات، لكنها لا تشترط الإفصاح عن المعلومات باستخدام الذكاء الاصطناعي لجميع الإعلانات السياسية.
لدى شركات وسائل التواصل الاجتماعي سبب وجيه لكي يُنظر إليها على أنها استباقية بشأن هذه القضية، حيث تشعر العلامات التجارية بالقلق من أن يتماشى انتشار المعلومات المضللة في لحظة محورية بالنسبة للأمة. جوجل وفيسبوك ومن المتوقع أن تستحوذ الإعلانات الرقمية على 47% من إجمالي 306.94 مليار دولار التي من المتوقع أن يتم إنفاقها على الإعلانات الرقمية في الولايات المتحدة في عام 2024. وقال إيفز: “هذه مشكلة ثالثة للعلامات التجارية الكبرى التي تركز على الإعلان خلال دورة انتخابية مثيرة للانقسام للغاية في المستقبل، وتضليل الذكاء الاصطناعي. إنها فترة معقدة للغاية للإعلان عبر الإنترنت”.
على الرغم من الرقابة الذاتية، فإن المحتوى الذي يتم التلاعب به بواسطة الذكاء الاصطناعي يصل إلى المنصات دون تصنيفات بسبب الكم الهائل من المحتوى المنشور كل يوم. رسائل البريد العشوائي التي تم إنشاؤها بواسطة الذكاء الاصطناعي أو كميات كبيرة من صور الذكاء الاصطناعيمن الصعب العثور على كل شيء.
قال توني آدامز، كبير الباحثين في وحدة مكافحة التهديدات في شركة سيكيوروركس: “إن الافتقار إلى معايير الصناعة والتطور السريع للتكنولوجيا يجعل هذا الجهد صعبًا. ولحسن الحظ، أفادت هذه المنصات عن نجاحها في مراقبة المحتوى الأكثر ضررًا على مواقعها من خلال الضوابط الفنية، ومن المفارقات أن الذكاء الاصطناعي هو الذي يدعم هذه الجهود”.
لقد أصبح من السهل أكثر من أي وقت مضى إنشاء محتوى مُتلاعب به. ففي شهر مايو/أيار، حذرت وكالة موديز من أن التزييف العميق “تم استغلاله بالفعل” من قبل الحكومات والكيانات غير الحكومية كأداة للدعاية ولخلق الاضطرابات الاجتماعية، وفي أسوأ الحالات، الإرهاب.
“حتى وقت قريب، كان إنشاء تزوير عميق مقنع يتطلب معرفة تقنية كبيرة بالخوارزميات المتخصصة وموارد الحوسبة والوقت”، كما كتب نائب رئيس وكالة موديز للتصنيفات أبهي سريفاستافا. “مع ظهور أدوات الذكاء الاصطناعي التي يسهل الوصول إليها وبأسعار معقولة، يمكن إنشاء تزوير عميق متطور في دقائق. إن سهولة الوصول هذه، إلى جانب القيود المفروضة على الضمانات الحالية لوسائل التواصل الاجتماعي ضد انتشار المحتوى المتلاعب به، تخلق بيئة خصبة لإساءة استخدام التزوير العميق على نطاق واسع”.
تسجيل صوتي مزيف من خلال مكالمة آلية تم استخدامه في الانتخابات التمهيدية الرئاسية في نيو هامبشاير هذه الدورة الانتخابية.
وتقول موديز إن إحدى النقاط الإيجابية المحتملة تتمثل في الطبيعة اللامركزية لنظام الانتخابات في الولايات المتحدة، إلى جانب سياسات الأمن السيبراني القائمة والمعرفة العامة بالتهديدات السيبرانية الوشيكة. وتقول موديز إن هذا من شأنه أن يوفر بعض الحماية. وتسن الولايات والحكومات المحلية تدابير لمنع التزييف العميق ومحتوى الذكاء الاصطناعي غير المصنف بشكل أكبر، لكن قوانين حرية التعبير والمخاوف بشأن حظر التقدم التكنولوجي أدت إلى إبطاء العملية في بعض الهيئات التشريعية للولايات.
وبحلول فبراير/شباط، كان يتم تقديم 50 تشريعًا متعلقًا بالذكاء الاصطناعي أسبوعيًا في الهيئات التشريعية للولايات، وفقًا لموديز، بما في ذلك التركيز على التزييف العميق. ولدى 13 ولاية قوانين بشأن التدخل في الانتخابات والتزييف العميق، تم سن ثمانية منها منذ يناير/كانون الثاني.
وأشارت موديز إلى أن الولايات المتحدة معرضة لمخاطر الإنترنت، المرتبة العاشرة من بين 192 دولة في مؤشر تنمية الحكومة الإلكترونية للأمم المتحدة.
وبحسب موديز، فإن التصور السائد بين عامة الناس بأن هذه التقنية قادرة على التأثير على النتائج السياسية، حتى في غياب أمثلة ملموسة، يكفي “لتقويض ثقة الجمهور في العملية الانتخابية ومصداقية المؤسسات الحكومية، وهو ما يشكل خطرا ائتمانيا”. وكلما زاد قلق السكان بشأن فصل الحقيقة عن الخيال، زاد خطر انفصال الجمهور عن الحكومة وانعدام ثقته فيها. وكتبت موديز: “ستكون مثل هذه الاتجاهات سلبية على الائتمان، مما قد يؤدي إلى زيادة المخاطر السياسية والاجتماعية، وتعريض فعالية المؤسسات الحكومية للخطر”.
وقال آدمز من شركة سيكيوروركس: “قد تثني استجابة أجهزة إنفاذ القانون ولجنة الاتصالات الفيدرالية الجهات الفاعلة المحلية الأخرى عن استخدام الذكاء الاصطناعي لخداع الناخبين. لكن لا شك على الإطلاق في أن الجهات الفاعلة الأجنبية ستستمر، كما كانت تفعل لسنوات، في التدخل في السياسة الأمريكية من خلال استغلال أدوات وأنظمة الذكاء الاصطناعي المولدة. والرسالة إلى الناخبين هي الحفاظ على الهدوء واليقظة والتصويت”.