المجتمع المدني يدعو إلى حظر الشرطة التنبؤية والتعرف على الوجه
قالت مجموعة من منظمات المجتمع المدني إن حكومة حزب العمال الجديدة يجب أن تفرض حظراً صريحاً على أنظمة “الشرطة التنبؤية” المدعومة بالذكاء الاصطناعي وأنظمة المراقبة البيومترية، على أساس أنها تستخدم بشكل غير متناسب لاستهداف المجتمعات العرقية والطبقة العاملة والمهاجرة.
في رسالة مفتوحة إلى وزيرة الداخلية إيفات كوبر، دعا تحالف #السلامة_وليس_المراقبة إلى فرض حظر تام على استخدام أنظمة الشرطة التنبؤية التي تستخدم الذكاء الاصطناعي والخوارزميات للتنبؤ أو تحديد أو تقييم احتمالية السلوك الإجرامي لدى أشخاص أو مواقع محددة.
ويدعو التحالف – الذي يتألف من مجموعة الحقوق المفتوحة (ORG)، ومنظمة مراقبة الأخ الأكبر (Big Brother Watch)، وشبكة مراقبة الشرطة (Netpol)، و14 منظمة أخرى تركز على حقوق الإنسان – إلى فرض حظر تام على أنظمة المراقبة البيومترية مثل التعرف على الوجه، ولتنظيم جميع الأنظمة الأخرى المعتمدة على البيانات أو الآلية أو الذكاء الاصطناعي في مجال الشرطة لحماية الأشخاص من الأذى وحماية حقوقهم.
وكتب التحالف في تقريره: “إن الذكاء الاصطناعي يتوسع بسرعة في جميع مجالات الحياة العامة، لكنه يحمل مخاطر عالية بشكل خاص على حقوق الناس وسلامتهم وحريتهم في سياقات الشرطة”. خطاب.
“لقد ثبت أن العديد من أنظمة الذكاء الاصطناعي تعمل على تضخيم التمييز وعدم المساواة. وعلى وجه الخصوص، تُستخدم ما يسمى بـ “الشرطة التنبؤية” وأنظمة المراقبة البيومترية بشكل غير متناسب لاستهداف الفئات المهمشة بما في ذلك المجتمعات العرقية والطبقة العاملة والمهاجرة. تعمل هذه الأنظمة على تجريم الناس وتنتهك حقوق الإنسان، بما في ذلك الحق الأساسي في افتراض البراءة”.
ولحماية حقوق الناس ومنع استخدامات الذكاء الاصطناعي التي تؤدي إلى تفاقم اختلال التوازن الهيكلي في القوة، يدعو التحالف الحكومة إلى حظر استخدام الشرطة التنبؤية والمراقبة البيومترية بشكل كامل، مع جعل جميع الأنظمة الأخرى التي تؤثر على قرارات الشرطة أو تبلغ عنها أو تؤثر عليها خاضعة لالتزامات صارمة بالشفافية والمساءلة.
وأضافت المجموعة أن هذه الالتزامات يجب أن تكون مدعومة بإطار تشريعي جديد إن إطار العمل الذي تم وضعه يهدف إلى توفير “شفافية عامة متسقة” حول الأنظمة التي يتم نشرها؛ ويقلل من تبادل البيانات بين السلطات العامة وأجهزة إنفاذ القانون والقطاع الخاص؛ ويفرض متطلبات إمكانية الوصول على موردي الذكاء الاصطناعي؛ ويضمن وجود مشاركة بشرية ذات مغزى ومراجعة القرارات الآلية.
وأضاف التحالف أن أي تشريع جديد يجب أن يضمن أيضًا وجود مشاركة إلزامية مع المجتمعات المتضررة، ومنح الناس الحق في الحصول على قرار مكتوب من شخص يشرح النتيجة الآلية، وتوفير طرق واضحة للانتصاف لكل من المجموعات والأفراد. وأضاف أن أي آليات انتصاف يجب أن تشمل أيضًا دعم المبلغين عن المخالفات.
سارة تشيتسيكو، مجموعة الحقوق المفتوحة
قالت سارة تشيتسيكو، مديرة برنامج ما قبل الجريمة في منظمة أورغ: “لقد ثبت أن الذكاء الاصطناعي والأنظمة الآلية تعمل على تضخيم التمييز وعدم المساواة في عمل الشرطة. وبدون تنظيم قوي، ستستمر الشرطة في استخدام أنظمة الذكاء الاصطناعي التي تنتهك حقوقنا وتؤدي إلى تفاقم اختلال التوازن الهيكلي في القوة، بينما تستفيد شركات التكنولوجيا الكبرى”.
وقالت الحكومة البريطانية في وقت سابق خطاب الملك أنها “ستسعى إلى وضع التشريعات المناسبة لفرض المتطلبات على أولئك الذين يعملون على تطوير أقوى نماذج الذكاء الاصطناعي”. ومع ذلك، هناك لا توجد حاليًا خطط لتشريعات خاصة بالذكاء الاصطناعي، حيث أن الإشارة الوحيدة للذكاء الاصطناعي في الإحاطة الخلفية للخطاب هي كجزء من مشروع قانون سلامة المنتجات والقياس، والذي يهدف إلى الاستجابة “لمخاطر المنتجات الجديدة والفرص لتمكين المملكة المتحدة من مواكبة التقدم التكنولوجي، مثل الذكاء الاصطناعي”.
ال الحكومة السابقة وقالت إن الاتحاد الأوروبي لن يتسرع في التشريع بشأن الذكاء الاصطناعي، لكن ستكون هناك حاجة إلى متطلبات ملزمة لأقوى الأنظمة، لأن التدابير الطوعية لشركات الذكاء الاصطناعي من المرجح أن تكون “غير متناسبة مع المخاطر” التي تشكلها القدرات الأكثر تقدما.
اتصلت مجلة Computer Weekly بوزارة الداخلية للحصول على تعليق، لكن قيل لها إنها لا تزال تدرس ردها.
مخاوف مستمرة بشأن تكنولوجيا الشرطة
في نوفمبر 2023، تولى فريزر سامبسون، مفوض القياسات الحيوية وكاميرات المراقبة المنتهية ولايته في إنجلترا وويلز، تساءل عن قدرات التعرف على الوجه في منع الجريمةوزعم البعض أن السلطات كانت تعتمد إلى حد كبير على تأثيرها المخيف، وليس فعاليتها الفعلية في تحديد هوية الأفراد المطلوبين.
وحذر أيضا من ضعف الرقابة بشكل عام على استخدام التكنولوجيات الحيوية من قبل الشرطة، مضيفا أن هناك مخاطر حقيقية من انزلاق المملكة المتحدة إلى دولة مراقبة “شاملة” إذا لم يتم الالتفات إلى المخاوف بشأن هذه التقنيات القوية.
كما حذر سامبسون سابقًا في فبراير 2023 من “ثقافة الاحتفاظ” العامة لدى شرطة المملكة المتحدة فيما يتعلق بالبيانات البيومترية، كلمة أمام اللجنة البرلمانية المشتركة لحقوق الإنسان (JCHR) أن الوضع الافتراضي بين قوات الشرطة هو الاحتفاظ بالمعلومات البيومترية، بغض النظر عما إذا كان ذلك مسموحًا به قانونًا.
وسلط الضوء بشكل خاص على احتجاز مستمر وغير قانوني لملايين الصور الخاصة بالحضانة من الأشخاص الذين لم يتم توجيه اتهامات لهم بارتكاب جريمة قط، مع ملاحظة أنه على الرغم من حكمت المحكمة العليا في عام 2012 قالت وزارة الداخلية البريطانية – التي تمتلك معظم قواعد البيانات البيومترية التي تستخدمها الشرطة في المملكة المتحدة – إن حذف هذه الصور أمر غير ممكن لأن قاعدة البيانات التي يتم تخزينها عليها لا تمتلك القدرة على الحذف بالجملة.
بداهة تحقيق مجلس اللوردات في استخدام الشرطة البريطانية لتقنيات خوارزمية متقدمة كما وجدت دراسة أخرى أجرتها منظمة العفو الدولية في مارس/آذار 2022، والتي استكشفت استخدام التعرف على الوجه وأدوات التنبؤ بالجرائم المختلفة، أن هذه الأدوات تشكل “خطرًا حقيقيًا وحاليًا على حقوق الإنسان وسيادة القانون. وما لم يتم الاعتراف بهذا ومعالجته، فإن الفوائد المحتملة لاستخدام التقنيات المتقدمة قد تفوق الضرر الذي سيحدث وانعدام الثقة الذي ستخلقه”.
وفي حالة تكنولوجيات “الشرطة التنبؤية”، لاحظ اللوردات ميلها إلى إنتاج “حلقة مفرغة” و”ترسيخ أنماط التمييز القائمة مسبقًا” لأنها توجه دوريات الشرطة إلى المناطق ذات الدخل المنخفض والتي تعاني بالفعل من فرط انتشار الشرطة بناءً على بيانات الاعتقالات التاريخية.
وفيما يتعلق بالتعرف على الوجه، أضافوا أنه يمكن أن يكون له تأثير مخيف على الاحتجاج، وتقويض الخصوصية، وتؤدي إلى نتائج تمييزية.
بعد تحقيق متابعة قصير يركز بشكل خاص على التعرف على الوجه، لاحظ اللوردات كانت الشرطة البريطانية توسع نطاق استخدامها لتكنولوجيا التعرف على الوجه دون تدقيق أو مساءلة مناسبة، على الرغم من افتقارها إلى أساس قانوني واضح لنشرها. كما وجدوا أنه لا توجد معايير أو أنظمة تنظيمية صارمة للسيطرة على استخدام القوات لهذه التكنولوجيا.