Meta لتحديد المزيد من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي قبل الانتخابات المقبلة
الرئيس التنفيذي لشركة Meta Platforms مارك زوكربيرج يصل إلى المحكمة الفيدرالية في سان خوسيه، كاليفورنيا، في 20 ديسمبر 2022.
ديفيد بول موريس | بلومبرج | صور جيتي
ميتا قالت شركة جوجل، اليوم الثلاثاء، إنها توسع جهودها لتحديد الصور التي تم التلاعب بها بواسطة الذكاء الاصطناعي، في إطار سعيها للتخلص من المعلومات المضللة والتزييف العميق قبل الانتخابات المقبلة في جميع أنحاء العالم.
وقالت الشركة إنها تقوم ببناء أدوات لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نطاق واسع عندما يظهر على فيسبوك، وإنستغرام، وThreads.
حتى الآن، قامت شركة Meta بتسمية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي فقط والتي تم تطويرها باستخدام أدوات الذكاء الاصطناعي الخاصة بها. وقالت الشركة الآن إنها ستسعى إلى تطبيق هذه التصنيفات على المحتوى من جوجلأوبن آي آي, مايكروسوفت, أدوبي، منتصف الرحلة و شاترستوك.
وقال ميتا إن التسميات ستظهر بجميع اللغات المتاحة في كل تطبيق. لكن التحول لن يكون فوريا.
كتب نيك كليج، رئيس الشؤون العالمية في شركة ميتا، في منشور بالمدونة أن الشركة ستبدأ في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والناشئة عن مصادر خارجية “في الأشهر المقبلة” وستواصل العمل على المشكلة “خلال العام المقبل”.
وكتب كليج أن الوقت الإضافي ضروري للعمل مع شركات الذكاء الاصطناعي الأخرى “للتوافق مع المعايير الفنية المشتركة التي تشير إلى متى تم إنشاء جزء من المحتوى باستخدام الذكاء الاصطناعي”.
تسببت المعلومات الخاطئة المتعلقة بالانتخابات في حدوث أ مصيبة فيسبوك بعد الانتخابات الرئاسية عام 2016 بسبب الطريقة التي تمكنت بها الجهات الفاعلة الأجنبية، ومعظمها من روسيا، من إنشاء ونشر محتوى مشحون للغاية وغير دقيق. تم استغلال المنصة بشكل متكرر في السنوات التالية، وعلى الأخص خلال جائحة كوفيد، عندما استخدم الناس المنصة لنشر كميات هائلة من المعلومات المضللة. كما انتشر منكرو الهولوكوست ومنظرو مؤامرة QAnon في الموقع.
تحاول Meta إظهار أنها مستعدة للجهات الفاعلة السيئة لاستخدام أشكال أكثر تقدمًا من التكنولوجيا في دورة 2024.
على الرغم من سهولة اكتشاف بعض المحتوى الناتج عن الذكاء الاصطناعي، إلا أن هذا ليس هو الحال دائمًا. لقد تم عرض الخدمات التي تدعي أنها تحدد النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، كما هو الحال في المقالات عرض التحيز ضد الناطقين باللغة الإنجليزية غير الأصليين. ليس الأمر أسهل بكثير بالنسبة للصور ومقاطع الفيديو، على الرغم من وجود علامات في كثير من الأحيان.
تتطلع Meta إلى تقليل عدم اليقين من خلال العمل بشكل أساسي مع شركات الذكاء الاصطناعي الأخرى التي تستخدم علامات مائية غير مرئية وأنواع معينة من البيانات الوصفية في الصور التي تم إنشاؤها على منصاتها. ومع ذلك، هناك طرق لإزالة العلامات المائية، وهي مشكلة تخطط Meta لمعالجتها.
وكتب كليج: “نحن نعمل بجد لتطوير أدوات التصنيف التي يمكن أن تساعدنا في اكتشاف المحتوى الذي ينشئه الذكاء الاصطناعي تلقائيًا، حتى لو كان المحتوى يفتقر إلى علامات غير مرئية”. “وفي الوقت نفسه، نبحث عن طرق تجعل إزالة العلامات المائية غير المرئية أو تغييرها أكثر صعوبة.”
يمكن أن تكون مراقبة الصوت والفيديو أصعب من مراقبة الصور، لأنه لا يوجد حتى الآن معيار صناعي لشركات الذكاء الاصطناعي لإضافة أي معرفات غير مرئية.
وكتب كليج: “لا يمكننا حتى الآن اكتشاف تلك الإشارات وتصنيف هذا المحتوى من شركات أخرى”.
ستضيف Meta طريقة للمستخدمين للإفصاح طوعًا عند قيامهم بتحميل الفيديو أو الصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. وجاء في المنشور أنه إذا شاركوا محتوى مزيفًا عميقًا أو أي شكل آخر من أشكال المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دون الكشف عنه، فقد تطبق الشركة “عقوبات”.
وكتب كليج: “إذا قررنا أن الصور أو مقاطع الفيديو أو المحتوى الصوتي التي تم إنشاؤها أو تعديلها رقميًا تشكل خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية، فقد نضيف علامة أكثر وضوحًا إذا كان ذلك مناسبًا”.