أخبار التقنية

تساهم تكنولوجيا الشرطة الآلية في حل مشكلة العنصرية البنيوية في المملكة المتحدة


وبحسب منظمة Runneymede Trust ومنظمة العفو الدولية، فإن استخدام الذكاء الاصطناعي وتقنيات التعرف على الوجه في أعمال الشرطة يساهم في “تراجع مثير للقلق” في الحقوق المدنية والسياسية للأشخاص الملونين في المملكة المتحدة.

فيهم تقديم مشترك وفي رسالة إلى لجنة الأمم المتحدة للقضاء على التمييز العنصري – التي تراقب بشكل مستقل جهود الدول للقضاء على العنصرية وتعزيز حقوق الإنسان – أوضحت مجموعات المجتمع المدني كيف أن مزيجًا من التشريعات والممارسات المؤسسية وعادات المجتمع يستمر في إيذاء الأشخاص الملونين في المملكة المتحدة.

وقالوا في بيان “يظهر التقرير الطرق التي استمرت بها التفاوتات التي يواجهها الأشخاص الملونون في نظام العدالة الجنائية والصحة والتعليم والتوظيف والهجرة منذ فترة الإبلاغ السابقة قبل أربع سنوات”. بيان صحفي.

“إن الفشل في تحسين النتائج بالنسبة للأشخاص ذوي البشرة الملونة، في حين يتم مهاجمة الطرق التي يمكن لهذه المجتمعات من خلالها الاختلاف، يؤدي إلى وضع مستحيل بالنسبة لهم. يمنع [counter-terrorism programme]”إن المجتمعات الملونة، التي تعاني من قيود على الاحتجاج، وتتعرض لرقابة مفرطة من جانب الشرطة، ولا تحظى بالحماية الكافية، وتتعرض لمعدلات أعلى من الفقر – ​​تضطر إلى رصف الشقوق التي حفرتها الدولة في داخلها.”

وقد أيد التقرير الذي يتكون من 50 صفحة أكثر من 40 منظمة أخرى من منظمات المجتمع المدني – بما في ذلك Liberty، وBlack Equity Organisation، وFriends Families and Travellers، وMigrants Organise، وInquest – ويحتوي على قسم حول تأثيرات الذكاء الاصطناعي والأتمتة في عمل الشرطة على الأشخاص الملونين في المملكة المتحدة.

وأشارت، على سبيل المثال، إلى أنه على الرغم من ميل التعرف المباشر على الوجه (LFR) تقنية لتحديد هوية الأشخاص الملونين بشكل خاطئ، وزارة الداخلية لديها وقد أكد سابقا على حق قوات الشرطة في استخدامه في الأطر القانونية القائمة، وهذا إن استخدام التكنولوجيا يتزايد بشكل عام.

“وفقًا للسجلات التي نشرتها شرطة العاصمة، تم نشر LFR في تسع مناسبات بين عامي 2020 و2022، مما أسفر عن تسعة اعتقالات أو التخلص منها. وقد زاد هذا بشكل ملحوظ إلى 96 مناسبة بين عامي 2023 ومايو 2024، مما أسفر عن 243 اعتقالًا،” كما جاء في البيان.

“كشفت منظمة Liberty Investigates أن وزارة الداخلية أجرت سراً مئات من عمليات البحث عن التعرف على الوجه باستخدام قاعدة بيانات صور جوازات السفر وقاعدة بيانات الهجرة، مما أثار المزيد من الأسئلة حول الافتقار إلى الشفافية ونطاق استخدام البيانات للتعرف على الوجه.”

وأشارت إلى أن استخدام الأنظمة الآلية مثل الشرطة التنبؤية و التعرف الآلي على لوحات الأرقام إن استخدام نظام التعرف على لوحات أرقام السيارات (ANPR) من قبل الشرطة يمكن أن يؤدي إلى انتهاكات لحقوق الإنسان ووفيات؛ مما يسلط الضوء على حقيقة أن السيارة التي يقودها كريس كابا البالغ من العمر 23 عامًا – والذي قُتل برصاصة في رأسه من قبل شرطة مسلحة في سبتمبر 2022 – تم التعرف عليها من خلال لوحة تسجيلها من خلال نظام التعرف على لوحات أرقام السيارات (ANPR) قبل اعتراضها.

ورغم أن الشرطة قالت في ذلك الوقت إن سيارة كابا “مرتبطة بجريمة تتعلق بالأسلحة النارية في الأيام السابقة”، إلا أن السيارة لم تكن مسجلة باسمه ولم يتم العثور على أسلحة نارية بداخلها في النهاية. ومنذ ذلك الحين، وجهت إلى الضابط المسلح المتورط تهمة القتل ومن المقرر أن يواجه المحاكمة في أكتوبر/تشرين الأول 2024.

وسلط التقرير الضوء أيضًا على النتائج التمييزية لقاعدة بيانات العصابات التابعة لشرطة العاصمة، مما أدى إلى تعرض الأشخاص الملونين (معظمهم من الفتيان والرجال السود الشباب، في هذه الحالة) لتصنيف عنصري بسبب الموسيقى التي يستمعون إليها، أو سلوكهم على وسائل التواصل الاجتماعي، أو أصدقائهم.

وأضافت أنه في حين تم إلغاء قاعدة البيانات بعد إدانتها باعتبارها عنصرية، لا تزال هناك مخاوف بشأن ما سيحل محله.

في توصياتها للحكومة البريطانية بشأن الذكاء الاصطناعي للشرطة، قالت منظمات المجتمع المدني إنه ينبغي للحكومة حظر جميع أشكال أنظمة التنبؤ والتصنيف في إنفاذ القانون والعدالة الجنائية (بما في ذلك الأنظمة التي تركز على الأفراد والجماعات والمواقع أو المناطق وتستهدفها)؛ وتوفير الشفافية العامة والإشراف عندما تستخدم الشرطة أو وكالات الهجرة والأمن الوطني الذكاء الاصطناعي “عالي الخطورة”؛ وفرض حدود قانونية لحظر استخدامات الذكاء الاصطناعي التي تشكل خطرا غير مقبول على حقوق الإنسان.

وأضافوا أن حكومة المملكة المتحدة يجب أن تبدأ تحقيقاً في جميع قواعد بيانات عصابات الشرطة، بهدف دراسة الحاجة إلى إصلاح أكثر شمولاً على المستوى الوطني. وينبغي أن يأخذ هذا في الاعتبار ما إذا كانت قواعد البيانات التي تستخدمها القوات في جميع أنحاء البلاد تشكل أداة شرطية فعالة في التعامل مع الجرائم العنيفة الخطيرة؛ وما إذا كانت تعمل في امتثال كامل لتشريعات حقوق الإنسان وحماية البيانات؛ وما إذا كانت متأثرة بالتحيز العنصري أو تؤدي إلى نتائج تمييزية.

اتصلت مجلة Computer Weekly بوزارة الداخلية بشأن توصيات التقرير وما إذا كانت الوزارة في ظل الإدارة الجديدة لا تزال تعتقد أن تكنولوجيا التعرف على الوجه مغطاة بشكل كافٍ بموجب التشريعات الحالية.

“في الأسبوع الماضي، شهدت مدننا وبلداتنا أعمال عنف مروعة، حيث تم استهداف الأفراد بسبب لون بشرتهم وهاجمت أماكن العبادة. لقد تسببت هذه العنصرية والكراهية في ضائقة واسعة النطاق”، قال المتحدث باسم الحكومة. “نحن عازمون على ألا يحدد بلطجية الشوارع أو المحرضون عبر الإنترنت هوية أمتنا. تكمن قوتنا في الوحدة بين جميع الخلفيات والأديان والثقافات”.

في نهاية يوليو/تموز 2024، تم تشكيل تحالف من 17 مجموعة من منظمات المجتمع المدني التي تركز على حقوق الإنسان على نحو مماثل ودعا حكومة حزب العمال الجديدة إلى فرض حظر صريح تعتمد أنظمة الشرطة التنبؤية والمراقبة البيومترية المدعومة بالذكاء الاصطناعي على أساس أنها تُستخدم بشكل غير متناسب لاستهداف المجتمعات العرقية والطبقة العاملة والمهاجرة.

قالت سارة شيتسيكو، مديرة برنامج ما قبل الجريمة في مجموعة الحقوق المفتوحة في ذلك الوقت: “لقد ثبت أن الذكاء الاصطناعي والأنظمة الآلية تعمل على تضخيم التمييز وعدم المساواة في عمل الشرطة. وفي غياب التنظيم القوي، ستستمر الشرطة في استخدام أنظمة الذكاء الاصطناعي التي تنتهك حقوقنا وتؤدي إلى تفاقم اختلال التوازن الهيكلي في القوة، في حين تستفيد شركات التكنولوجيا الكبرى”.

وتنظر وزارة الداخلية في نتائج كلا التقريرين.

مخاوف مستمرة بشأن تكنولوجيا الشرطة

في نوفمبر 2023، تولى فريزر سامبسون، مفوض القياسات الحيوية وكاميرات المراقبة المنتهية ولايته في إنجلترا وويلز، تساءل عن قدرات التعرف على الوجه في منع الجريمةوزعم البعض أن السلطات كانت تعتمد إلى حد كبير على تأثيرها المخيف، وليس فعاليتها الفعلية في تحديد هوية الأفراد المطلوبين.

وحذر أيضا من ضعف الرقابة بشكل عام على استخدام التكنولوجيات الحيوية من قبل الشرطة، مضيفا أن هناك مخاطر حقيقية من انزلاق المملكة المتحدة إلى دولة مراقبة “شاملة” إذا لم يتم الالتفات إلى المخاوف بشأن هذه التقنيات القوية.

كما حذر سامبسون سابقًا في فبراير 2023 من “ثقافة الاحتفاظ” العامة لدى شرطة المملكة المتحدة فيما يتعلق بالبيانات البيومترية، كلمة أمام اللجنة البرلمانية المشتركة لحقوق الإنسان (JCHR) أن الوضع الافتراضي بين قوات الشرطة هو الاحتفاظ بالمعلومات البيومترية، بغض النظر عما إذا كان ذلك مسموحًا به قانونًا.

وسلط الضوء بشكل خاص على احتجاز مستمر وغير قانوني لملايين الصور الخاصة بالحضانة من الأشخاص الذين لم يتم توجيه اتهامات لهم بارتكاب جريمة قط، مع ملاحظة أنه على الرغم من حكمت المحكمة العليا في عام 2012 قالت وزارة الداخلية البريطانية – التي تمتلك معظم قواعد البيانات البيومترية التي تستخدمها الشرطة في المملكة المتحدة – إنه لا يمكن حذف هذه الصور لأن قاعدة البيانات التي يتم تخزينها عليها لا تحتوي على القدرة على الحذف بالجملة.

سابقة تحقيق مجلس اللوردات في استخدام الشرطة البريطانية لتقنيات خوارزمية متقدمة كما وجدت دراسة أخرى أجرتها منظمة العفو الدولية في مارس/آذار 2022، والتي استكشفت استخدام التعرف على الوجه وأدوات التنبؤ بالجرائم المختلفة، أن هذه الأدوات تشكل “خطرًا حقيقيًا وحاليًا على حقوق الإنسان وسيادة القانون. وما لم يتم الاعتراف بهذا ومعالجته، فإن الفوائد المحتملة لاستخدام التقنيات المتقدمة قد تفوق الضرر الذي سيحدث وانعدام الثقة الذي ستخلقه”.

وفي حالة تكنولوجيات “الشرطة التنبؤية”، لاحظ اللوردات ميلها إلى إنتاج “حلقة مفرغة” و”ترسيخ أنماط التمييز القائمة مسبقًا” لأنها توجه دوريات الشرطة إلى المناطق ذات الدخل المنخفض والتي تعاني بالفعل من فرط انتشار الشرطة بناءً على بيانات الاعتقالات التاريخية.

وفيما يتعلق بالتعرف على الوجه، أضافوا أنه يمكن أن يكون له تأثير مخيف على الاحتجاج، تقوض الخصوصية وتؤدي إلى نتائج تمييزية.

بعد تحقيق متابعة قصير يركز بشكل خاص على التعرف على الوجه، لاحظ اللوردات ووجدت اللجنة أن الشرطة البريطانية توسع نطاق استخدامها لتكنولوجيا التعرف على الوجه دون تدقيق أو مساءلة مناسبة، على الرغم من افتقارها إلى أساس قانوني واضح لنشرها. كما وجدت اللجنة أنه لا توجد معايير أو أنظمة تنظيمية صارمة للسيطرة على استخدام القوات لهذه التكنولوجيا.



Source link

زر الذهاب إلى الأعلى