أخبار التقنية

يقول النواب إن نظام السلامة عبر الإنترنت في المملكة المتحدة غير فعال على المعلومات الخاطئة


يفشل قانون السلامة عبر الإنترنت في المملكة المتحدة (OSA) في معالجة “المعلومات الخاطئة المتسارعة خوارزمية” على منصات التواصل الاجتماعي ، تاركًا للجمهور عرضة لتكرار عام 2024 شغب ساوثبورت، حذر النواب.

بعد استفسار عبر الإنترنت معلومات خاطئة و خوارزميات ضارة، حددت لجنة العلوم والابتكار والتكنولوجيا (SITC) “الثقوب الرئيسية” في نظام السلامة عبر الإنترنت في المملكة المتحدة عندما يتعلق الأمر بالتعامل مع الانتشار الفيروسي للمحتوى الخاطئ أو الضار.

مع تسليط الضوء على أعمال شغب ساوثبورت في يوليو 2024 كمثال على كيفية “النشاط عبر الإنترنت يمكن أن يساهم في العنف في العالم الحقيقي” ، حذرت SITC في أ تقرير تم نشره في 11 يوليو 2025 أنه في حين أن أجزاء كثيرة من OSA لم تكن سارية بالكامل في وقت الاضطرابات، “لقد وجدنا القليل من الأدلة على أنهم سيحدثون فرقًا إذا كانوا”.

وقالت إن هذا يرجع إلى مزيج من العوامل ، بما في ذلك تدابير ضعيفة ذات صلة بالمعلومات الخاطئة في القانون نفسه ، وكذلك نماذج الأعمال وخوارزميات التوصية المعتمة لشركات التواصل الاجتماعي.

وقال تشي أونورا ، رئيس SITC: “من الواضح أن قانون السلامة عبر الإنترنت لا يعود إلى الخدش”. “تحتاج الحكومة إلى الذهاب إلى أبعد من ذلك لمعالجة الانتشار المنتشر للمعلومات الخاطئة التي تسبب الضرر ولكنها لا تعبر الخط إلى غير شرعية. شركات التواصل الاجتماعي ليست فقط منصات محايدة ولكنها تنشط بنشاط ما تراه عبر الإنترنت ، ويجب أن تكون محاسبة.

تشمل هذه المبادئ السلامة العامة ، والتعبير المجاني والآمن ، والمسؤولية (بما في ذلك لكل من المستخدمين النهائيين والمنصات نفسها) ، والتحكم في البيانات الشخصية ، والشفافية.

قدمت SITC أيضًا توصيات محددة ، مثل إنشاء “معايير واضحة وقابلة للتنفيذ” للنظام الإيكولوجي الإعلاني الرقمي الذي يحفز تضخيم المعلومات الخاطئة ، وإدخال واجبات جديدة للمنصات لتقييم المخاطر المتعلقة بالمعلومات الخاطئة والتعامل معها. وقال النواب: “من أجل معالجة معلومات مضللة … يجب أن تتعاون الحكومة و OFCOM مع منصات لتحديد وتتبع الجهات الفاعلة في المعلومات المضللة ، والتقنيات والسلوكيات التي يستخدمونها لنشر الروايات العددية والمخادعة عبر الإنترنت”.

نماذج الأعمال والخوارزميات المعتمة

وفقًا لـ SITC ، فإن شركات وسائل التواصل الاجتماعي “غالبًا ما يتم تمكينها أو حتى تشجعها” الانتشار الفيروسي للمعلومات الخاطئة-وربما استفادت منها-نتيجة لنماذج أعمالها القائمة على الإعلان والمشاركة.

“إن نماذج الأعمال القائمة على الإعلانات لمعظم شركات وسائل التواصل الاجتماعي تعني أنها تعزز محتوى جذاب ، بغض النظر عن سلامته أو أصالته” ، كتب MPS. “هذا يتسرب عبر الإنترنت بأكمله ، عبر سوق الإعلانات الرقمية غير المنظمة غير المنظمة ، مما يحفز إنشاء المحتوى الذي سيؤدي أداءً جيدًا على وسائل التواصل الاجتماعي.”

وأضافوا أنه على الرغم من أن شركات التكنولوجيا الكبرى أخبرت اللجنة أنه لا توجد حوافز للسماح بمحتوى ضار على منصاتها ، حيث يمكن أن تلحق الضرر بالعلامة التجارية والمعلنين ، “إن صنع السياسات في هذا المجال قد تفتقر إلى قاعدة أدلة كاملة” لأن الشركات الداخلية لخوارزميات توصية التوصية الاجتماعية لا يتم الكشف عنها.

وقالوا: “لقد طلبنا من العديد من شركات التكنولوجيا تقديم تمثيلات رفيعة المستوى لخوارزميات التوصية الخاصة بهم إلى اللجنة ، لكنهم لم يفعلوا ذلك” ، مضيفين أن هذا “النقص في الشفافية” يجعل من الصعب وضع روابط سببية واضحة بين توصيات وأضرار محددة.

وقالوا: “يجب أن تكون التكنولوجيا التي تستخدمها شركات وسائل التواصل الاجتماعي شفافة ويمكن تفسيرها ويمكن الوصول إليها للسلطات العامة”.

وأضاف SITC أن الحكومة يجب أن تخلق تدابير لإجبار منصات الوسائط الاجتماعية على تضمين الأدوات في أنظمتها التي يمكنها تحديد وتجاهل المحتوى المضللة التي تم فحصها في الخوارزمية ، أو المحتوى الذي يستشهد بمصادر غير موثوقة ، حيث يتمتع بإمكانية التسبب في ضرر كبير.

وقال النواب: “من الأهمية بمكان ألا تقوم هذه التدابير بالرقابة على التعبير الحرة القانوني ، ولكنها تطبق قيودًا مبررة ومتناسبة على انتشار المعلومات لحماية الأمن القومي أو السلامة العامة أو الصحة أو منع الاضطراب أو الجريمة”.

عند معالجة نماذج الأعمال الأساسية التي تحفز المعلومات الخاطئة ، قال النواب إن هناك فجوة تنظيمية حول الإعلانات الرقمية ، حيث أن التركيز على المحتوى الإعلاني الضار بدلاً من “تسييل المحتوى الضار من خلال الإعلان”.

وأضافوا: “يجب على الحكومة إنشاء هيئة جديدة بطول الأسلحة-لا تمولها الصناعة-لتنظيم وتدقيق عملية الإعلان الرقمي ، وتغطي سلسلة التوريد الآلية المعقدة والمعممة التي تسمح بتخصيص محتوى ضار ومضلل”. “أو ، على الأقل ، يجب على الحكومة تمديد صلاحيات Ofcom لتغطية هذا النوع من الأذى بشكل صريح ، وتنظيم بناءً على مبدأ منع انتشار المحتوى الضار أو المضللة من خلال أي وسيلة رقمية ، بدلاً من الحد من تقنيات أو قطاعات محددة.”

في حين أن الذكاء الاصطناعي التوليدي (GENAI) لعبت دورًا هامشيًا فقط في انتشار المعلومات الخاطئة قبل أعمال شغب ساوثبورت ، فقد أعربت SITC عن قلقها بشأن الدور الذي يمكن أن تلعبه في “أزمة مماثلة في المستقبل”.

قالوا إن “التكلفة المنخفضة ، وتوافرها الواسع والتقدم السريع تعني أن كميات كبيرة من المحتوى الخادع المقنع يمكن إنشاء متزايد على نطاق واسع”.

وقالت إن الحكومة يجب أن تمرر بالتالي تشريعات تغطي منصات Genai ، تمشيا مع الخدمات الأخرى عبر الإنترنت التي تشكل خطرًا كبيرًا لإنتاج أو نشر محتوى غير قانوني أو ضار.

“يجب أن يتطلب هذا التشريع منصات منظمة العفو الدولية التوليدية إلى: توفير تقييمات للمخاطر إلى OFCOM على المخاطر المرتبطة بمطالبات ومخرجات مختلفة ، بما في ذلك إلى أي مدى يمكنهم إنشاء أو نشر محتوى غير قانوني أو ضار أو مضللة ؛ اشرح للمحتوى غير الشرعي أو النموذج ، ويستجيب للمحتوى ، ويستجيب للمواضيع الحساسة ، والموضوعات الحساسة ، والموضوعات التي تتوافق معها ، وتوليفات الأطفال ، أو المخرجات التي تتوافق معها ، أو تتمثل في التغلبات على الأطفال ، أو التوقعات المتمثلة في التغلبات ، أو التوقعات التي تتوافق معها. مخرجات غير لائقة أو ضارة. “

وأضافوا أنه يجب تمييز جميع المحتوى الذي تم إنشاؤه من الذكاء الاصطناعي تلقائيًا على هذا النحو “مع البيانات الوصفية والعلامات المائية المرئية التي لا يمكن إزالتها”.



Source link

زر الذهاب إلى الأعلى