لماذا يتحدث الذكاء الاصطناعي عن السياسة هذا العام؟
وتجري انتخابات رئيسية في المملكة المتحدة والولايات المتحدة والاتحاد الأوروبي والهند، ومن المقرر أن تجري العديد من الدول الأخرى انتخابات على مدار العام. جنبًا إلى جنب مع العديد من المؤسسات التي تعمل في مجال البيانات والذكاء الاصطناعي، فإننا ندرك الفرص الهائلة – والتحديات الكبيرة – التي يمكن أن تلعبها هذه التقنيات تشكيل ديمقراطياتنا والإضرار بها.
في أعقاب قمة سلامة الذكاء الاصطناعي التي عقدت في المملكة المتحدة وقانون الذكاء الاصطناعي في الاتحاد الأوروبي، احتلت المحادثات حول الذكاء الاصطناعي مركز الصدارة في دوائر السياسة والمجتمع المدني والصناعة ونحن نسير في الطريق إلى الأمام. تميل العديد من هذه المحادثات إلى التركيز على الذكاء الاصطناعي المستقبلي، وهو ما يُطلق عليه اسم “الذكاء الاصطناعي الحدودي” Frontier AI؛ لقد سمعنا عن التهديدات المستقبلية، والفرص المستقبلية، ومستقبل لا ينفصل عن الذكاء الاصطناعي.
ومع ذلك، فنحن بالفعل في عصر الذكاء الاصطناعي، وقد كنا كذلك منذ أكثر من عقد من الزمن. تحتاج محادثاتنا إلى التركيز على التأثير الحقيقي والحالي الذي تحدثه بالفعل في كل جزء من حياتنا. الذكاء الاصطناعي منتشر ومنتشر في كل مكان، وإحدى سماته الأكثر لفتًا للانتباه هي الإمكانات غير العادية التي يجب استخدامه للتأثير على أفكار الناس وسلوكياتهم وأصواتهم. لقد رأينا أن الذكاء الاصطناعي يجعل الحملات أقل تكلفة في إدارتها، مما يؤدي إلى تكافؤ الفرص، ولكننا رأينا أيضًا التأثير السلبي بشكل لا يصدق كامبريدج أناليتيكا. لقد أدت القدرة على إنتاج صور مزيفة واقعية وعميقة على نطاق واسع، وقدرات الذكاء الاصطناعي التحادثي إلى تغيير مدى وعمق التحديات التي نواجهها الآن.
في عالم التكنولوجيا، كثيرا ما نسمع القول المأثور “تحرك بسرعة وحطم الأشياء” – ولكن هذا لا يبشر بالخير بالنسبة لنا على المستوى المحلي أو الوطني أو العالمي عندما تكون الأشياء التي يمكن أن نكسرها هي الديمقراطية والمجتمع. وبطبيعة الحال، يمكن للموجة الأخيرة من الذكاء الاصطناعي أن تزيد من المشاركة السياسية. على سبيل المثال، أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT يمكن استخدامها لشرح الأنظمة السياسية، وتلخيص تعهدات البيان، وتشجيع المجموعات الممثلة تمثيلا ناقصا على الذهاب إلى صناديق الاقتراع. ولكن هناك أدلة متزايدة على أن الذكاء الاصطناعي كان، وسوف يُستخدم، لتوليد صور مزيفة واقعية، وإنشاء معلومات مضللة ونشرها، واستهداف الناخبين برسائل تعزز الرسائل الضارة أو غير الصادقة إلى مستوى لم نشهده من قبل.
في الانتخابات السابقة ــ سواء في أوروبا أو الخارج ــ أغرقت التكنولوجيات التي تركز على البيانات مثل الذكاء الاصطناعي منصات وسائل الإعلام الاجتماعية بإعلانات مخصصة ومستهدفة، والتي غالبا ما كانت تحتوي على أنصاف حقائق وادعاءات مشكوك فيها. ومع اقترابنا من انتخابات هذا العام، سيتعين علينا أن نتعامل مع استخدام أنظمة الذكاء الاصطناعي الأكثر تقدمًا في الانتخابات، حيث يتوجه عدد أكبر من الناس إلى صناديق الاقتراع في جميع أنحاء العالم أكثر من أي وقت مضى. الذكاء الاصطناعي هو تقنية تتطور باستمرار وتمنح أي شخص لديه إمكانية الوصول إلى هاتف ذكي القدرة على إنشاء معلومات مضللة ونشرها – إذا رغب في ذلك. وبينما تنتشر المعلومات المضللة لأن الناس يشاركونها على منصات التواصل الاجتماعي، هناك فرق جوهري عن الانتخابات السابقة: لقد تحسنت نوعية التزييف العميق. أصبح الناس أكثر وعيًا بوجود هذه القدرات وتعلموا كيفية استخدامها.
وحتى في حالة عدم وجود نية سيئة في تطبيق الذكاء الاصطناعي التوليدي، يظل خطر تضمين وتضخيم وترسيخ التحيزات ــ التحيزات التي قد توجد في البيانات التي يتم تدريب أنظمة الذكاء الاصطناعي عليها. يتم جمع كميات كبيرة من البيانات من منصات وسائل التواصل الاجتماعي واستخدامها لتدريب الذكاء الاصطناعي، ولكن لا يتم بذل ما يكفي لضمان دقتها وتمثيلها. في الوقت نفسه، وصلت التكنولوجيا إلى نقطة انعطاف: فقد تم بالفعل استخدام الغالبية العظمى من مصادر البيانات المنسقة مثل الأرشيفات والمكتبات ومحتوى الوسائط لتدريب أنظمة الذكاء الاصطناعي الحالية غير المثالية في السوق. لا يمكن تحقيق التحسينات، على سبيل المثال في شكل محتوى أكثر صدقًا وتم التحقق منه، إذا كانت الإصدارات الأحدث من أنظمة الذكاء الاصطناعي هذه تعتمد على طوفان المحتوى الاصطناعي الذي نراه بالفعل على وسائل التواصل الاجتماعي، لذلك هناك خطر من أننا قد نرى التكنولوجيا تتدهور إذا بدأت في الاعتماد على البيانات التي يولدها الذكاء الاصطناعي.
لدينا قانون انتخابي قوي في المملكة المتحدة، حيث تقوم أبحاثنا ومشاركتنا. جميع الجرائم والعلل والشرور التي يمكن ارتكابها محددة بالفعل. ومع ذلك، فمن الممكن أن تتعرض مؤسساتنا ومؤسسات الدولة الأخرى للضغط بسبب الحجم الهائل للانتهاكات وخرق القواعد. من المعروف أن الشائعات تنتشر في منتصف الطريق حول العالم قبل أن تظهر الحقيقة – ويمكن تعزيز ذلك في عصر الذكاء الاصطناعي التوليدي. ويتعين علينا أن نضمن حصول الجهات التنظيمية والمؤسسات لدينا على الإرشادات حول كيفية تطبيق القواعد التنظيمية الحالية على الذكاء الاصطناعي، وأيضا الموارد والخبرة الفنية اللازمة لفهم كيفية وتوقيت فرض القواعد. ويمثل هذا تحديًا خاصًا في قطاع مثل الذكاء الاصطناعي الذي يتقاضى رواتب مذهلة ويعاني بالفعل من نقص كبير في المهارات
إن إيجاد حل لهذه المشكلة ليس بالأمر الذي يجب على الحكومة وحدها أن تفكر فيه. ويجب أن يشمل المجتمع المدني وشركات التكنولوجيا الخاصة والمواطنين والمستهلكين. ستحتاج الشركات إلى التأكد من بياناتها وأن تكون أكثر انفتاحًا بشأن البيانات التي تغذيها بخوارزميات الذكاء الاصطناعي الخاصة بها. وسوف تحتاج الحكومات إلى النظر في طرق مبتكرة لطمأنة المواطنين وجعلهم يشعرون بالأمان. كمستهلكين وكمجتمع، سنحتاج إلى أن نتعلم كيف نكون أكثر انتقادًا ونتساءل عن الأصل الأساسي للمعلومات والبيانات التي تستند إليها. ويبدأ ذلك بتزويد الأشخاص بمهارات القراءة والكتابة بالبيانات والذكاء الاصطناعي وتمكينهم من المطالبة بتصنيف المحتوى الناتج عن الذكاء الاصطناعي على هذا النحو في وسائل الإعلام وفي أماكن أخرى.
وعلى المستوى العالمي، سوف نحتاج إلى النظر في الكيفية التي يمكننا بها البدء في بناء الهياكل والمؤسسات والأنظمة والتكنولوجيا مع قيم الثقة والمصدر والأصالة في جوهرها. وسوف نحتاج إلى تحفيز شركات التكنولوجيا ــ بالجزرة والعصا ــ لبناء الضمانات وفتح الخوارزميات للتقييم المستقل. يحتاج قطاع التكنولوجيا إلى مواصلة الاستثمار في الحلول التي تكافح الأخبار المزيفة وتعالج المعلومات الخاطئة والمضللة: وهذا يشمل الاستفادة من التعلم العميق للكشف عن الاستخدام الشائن للذكاء الاصطناعي، ولكن أيضًا بذل المزيد من الجهد لدعم النظام البيئي الأوسع، وهذا يعني منح الباحثين وصول المبتكرين إلى البيانات.
ينبغي للحكومات أيضًا أن تطلب الكشف – من قبل المرشحين السياسيين والحملات السياسية – عن استخدام الذكاء الاصطناعي والأنظمة الخوارزمية، حتى يعرف الناس ما إذا كانوا عرضة للاستهداف وما إذا كان قد تم اختيارهم خوارزميًا وتم دفع المعلومات إليهم. ومن خلال زيادة المساءلة والشفافية، سيشعر الناس بمزيد من الأمان وأقل انفتاحا على التلاعب. على الصعيد العالمي، ينبغي للحكومات أن تتابع وتقيم وتتعلم من دروس عام 2024 حتى نتمكن من حماية ديمقراطياتنا ومجتمعاتنا لسنوات قادمة. لقد كانت الحكومات بطيئة في الاستجابة لمخاطر وسائل التواصل الاجتماعي على الديمقراطية – ولكن لدينا فرصة للمضي قدماً في تنظيم الذكاء الاصطناعي في هذا المجال.
الأمر متروك لأي شخص لكيفية اختيار التصويت في الانتخابات، وقد يختار التصويت بمعلومات أكثر أو أقل، من مصادر أكثر أو أقل موثوقية، أو عدم التصويت على الإطلاق. هذا هو اختيارهم. ومع ذلك، في سياق التكنولوجيا الجديدة والقوية، يجب علينا التأكد من أن هذا هو خيارهم حقًا، بعد كل شيء.
ريشام كوتيشا هو رئيس قسم السياسات في معهد البيانات المفتوحة