أخبار التقنية

خوارزميات وسائل التواصل الاجتماعي تعرض الأطفال للمحتوى الإباحي العنيف ، ويظهر التقرير


تدفع خوارزميات وسائل التواصل الاجتماعي محتوى إباحي غير مرغوب فيه إلى خلاصات الأطفال ، وفقًا لتقرير صادر عن مفوض الأطفال.

تم جمع البيانات قبل تنفيذ قانون السلامة عبر الإنترنت، ولكن يوفر لقطة على أنواع محتوى ضار يجري عرضه والوصول إليه من قبل الأطفال عبر الإنترنت وكيف يؤثر هذا المحتوى عليهم.

وفقًا للتقرير ، شهد 70 ٪ من المجيبين ، الذين تتراوح أعمارهم بين 16 و 21 عامًا ، المواد الإباحية ، حيث أبلغ الطفل العادي هذا النوع من المحتوى في سن 13 عامًا ، وأكثر من ربعه بعد سن 11 عامًا.

قال المجيبون الذين تعرضوا للمحتوى الإباحية عبر الإنترنت إن ثمانية من أصل 10 مصادر لهذا المحتوى كانت وسائل التواصل الاجتماعي أو مواقع التواصل الاجتماعي.

وفقًا للتقرير ، كانت X (المعروفة سابقًا باسم Twitter) أكبر منصة حيث واجه الأطفال إباحية ، مع 45 ٪ من المجيبين ، مما يجعل من المرجح أن يجد الأطفال المواد الإباحية هناك أكثر من مواقع الإباحية المخصصة.

كما تظهر شركات وسائل التواصل الاجتماعي الأخرى التي تحظى بشعبية بين الأطفال في الاستطلاع مع ما ينص على أن يكون التقرير “يتعلق بالتردد”. وتشمل هذه: Snapchat (29 ٪) ، Instagram (23 ٪) ، Tiktok (22 ٪) و YouTube (15 ٪).

بشكل لافت للنظر ، أبلغ 59 ٪ عن رؤية المواد الإباحية عبر الإنترنت عن طريق الصدفة ، والتي ارتفعت من 38 ٪ في عام 2023. وقال مارك جونز ، الشريك القانوني في باين هيك بيتش ، إن “الأطفال يشاهدون محتوى ضارًا بسبب الخوارزميات المستخدمة من قبل المنصات ، بدلاً من البحث عن ذلك بنشاط”.

محتوى ضار

وأضاف جونز ، وهو جزء من قسم حل النزاعات ، ويمثل كل من الأفراد والشركات: “بموجب قانون السلامة عبر الإنترنت وواجبات سلامة الطفل ، يُطلب من المنصات منع خوارزمياتهم من التوصية بالمحتوى الضار.

يدعم التقرير بنشاط إدخال تدابير التحقق من العمر الجديدة في OFCOM وتنفيذ رمز الأطفال ، والذي يتطلب مواقع التواصل الاجتماعي لإجراء تغييرات لمنع الأطفال من رؤية هذا النوع من المحتوى الضار.

وقال جونز: “دخل قانون الأطفال حيز التنفيذ اعتبارًا من 25 يوليو 2025”. “سيكون من المثير للاهتمام معرفة التغييرات ، إن وجدت ، في هذا المجال. على وجه الخصوص ، ما إذا كانت المنصات تضعف محتوى فعليًا ولم تعد تستخدم خوارزميات سامة لتصفية المحتوى الضار الذي يتم الوصول إليه من قبل الأطفال.”

بالإضافة إلى ذلك ، يؤكد التقرير على أن غالبية المحتوى الإباحي الذي رأى المجيبين يصورون أفعال غير قانونية بموجب قوانين المواد الإباحية الحالية. على سبيل المثال ، رأى 58 ٪ من المجيبين إباحية تصور الخنق عندما كانوا أقل من 18 عامًا. علاوة على ذلك ، أبلغ 44 ٪ من رؤية تصوير الاغتصاب.

يؤكد التقرير على أن هذا له تأثير ضار على تفاعلات الأطفال مع بعضهم البعض ، مما يؤثر على توقعاتهم حول صورة الجنس وصورة الجسم.

وقال متحدث باسم مفوض الأطفال لـ Computer Week إن العلاقة بين التعرض للمواد الإباحية والأضرار التي لحقت بسلوك الأطفال كانت مهمة للغاية بناءً على الإبلاغ الذاتي المباشر من هؤلاء الأطفال.

وقالوا: “لقد أخبر الأطفال لمفوض الأطفال أنهم يتوقعون أن يعاني من العنف في علاقة ، أو يتوقعون أن تكون تفاعلاتهم الأولى ذات الطبيعة الجنسية مثل ما يرونه في المواد الإباحية ، لأن هذا ما يتعرضون له”.

تصوير المرأة

فيما يتعلق بشكل خاص بتصوير النساء ، اللائي يظهرن بشكل أكثر شيوعًا في الطرف المتلقي للأفعال العدوانية جنسياً أكثر من الرجال ، والذي يجد التقرير أن يؤدي إلى تصورات عنيفة للجنس التي تستهدف النساء.

يقول المتحدث الرسمي إن اللجنة التي وجدت من خلال الدراسات الاستقصائية والبحث وخاصة بالنسبة للفتيات ، اللائي شاهدوا المواد الإباحية العنيفة ، أصبحت تصورات الموافقة الخاصة بها غائمًا.

وقالوا: “الفتيات اللائي شاهدوا المواد الإباحية كانوا أكثر عرضة للاتفاق مع البيان القائل بأن الفتيات اللائي يقولن” لا “يمكن إقناعهم بممارسة الجنس”. “لذلك ، قد يقولون” لا “للبدء ، ولكن بعد ذلك يتوقعون الآن إقناعهم بخلاف ذلك. فكرة الموافقة التي تم تكريسها في نظامنا التعليمي من خلال التثقيف الجنسي ، والتعليم على مدار العشر إلى 15 عامًا ، يبدو أنها على أرض صخرية.”

في حين أن وسائل التواصل الاجتماعي تعرض نفسها كنقطة اتصال أول للعديد من هؤلاء الأطفال ، فقد أكد مفوض الأطفال التأكيد على أن الخوارزميات ليست بالضرورة شريرة ، بل شركات التكنولوجيا لا تحسن محركات البحث الخاصة بهم لإزالة هذا المحتوى من الأطفال.

وقال المتحدث باسم شركات التكنولوجيا من هم مستخدموها الصغار “. “لديهم القدرة على التعرف على نشاط المستخدم ومراقبته. يجب أن يكون هناك تركيز أكبر وأقل غموض حول من توجه هذا المحتوى الخوارزمي إذا كان مستخدمًا شابًا. يجب أن يتم إيقاف ذلك ببساطة قبل أن يصل إلى خلاصتها ، أو يجب أن تكون هناك طريقة أكثر صرامة لإبعادهم عن الموقع ، وسنرى ذلك بعد مع مواقع مثل X.”

يوصي التقرير بتقديم المواد الإباحية عبر الإنترنت لتلبية متطلبات المحتوى نفسها مثل المواد الإباحية غير المتصلة بالإنترنت ، بحيث يتم محظور تصوير الخنق غير المميت.

كما يدعو الحكومة إلى استكشاف الخيارات التي تمنع الأطفال من استخدام الشبكات الخاصة الافتراضية (VPNS) لتجاوز لوائح قانون السلامة عبر الإنترنت ، ومزيد من التمويل للمدارس لتنفيذ علاقات جديدة ، والصحة والتربية الجنسية (RHSE) ، بما في ذلك حملة التوظيف لمعلمي RHSE. وأضاف التقرير: “يجب أن يكون هذا معيارًا مقابل نجاح قانون السلامة عبر الإنترنت. سنكرر هذا الاستطلاع مرة أخرى في العام المقبل لمعرفة ما إذا كان هناك أي تغيير كبير في ما يمكن للأطفال الوصول إليه”.

لم يستجب منظم الاتصالات ، OFCOM ، بشكل مباشر لنتائج التقرير ، لكنه ذكر سابقًا: “يجب على شركات التكنولوجيا إدخال فحوصات عمرية لمنع الأطفال من الوصول إلى إباحية ، ومراقبة الذات ، والانتحار واضطراب الأكل” و “توقع إطلاق أي تحقيقات في خدمات فردية” لا تفي بالامتثال.

كانت هناك عدة مكالمات للتنفيذ تنظيم أكثر صرامة على خوارزميات وسائل التواصل الاجتماعيالتي تفيد التقارير تغذي المعلومات الخاطئةوالمحتوى الضار الآخر.

كانت لجنة Commons Science والابتكار والتكنولوجيا قد عزت سابقًا انتشار المعلومات الخاطئة إلى الخوارزميات التي تعطي الأولوية للنماذج التجارية للإعلان والمشاركة لتوليد الإيرادات ، دون تنفيذ أدوات في أنظمتها إلى محتوى ضار.

تعمل الخوارزميات بناءً على نماذج الذكاء الاصطناعي للتعلم الآلي ، ويمكنها تطوير التحيزات ، وتحديد أولويات المحتوى المروع الذي يولد النقرات. يمكن إعادة استخدام هذه التكنولوجيا نفسها لتعزيز النتائج الاجتماعية الإيجابية وإزالة المحتوى الضار من عرض المستخدمين للمستخدمين.



Source link

زر الذهاب إلى الأعلى