أخبار التقنية

يقترح النواب حظرًا على الشرطة التنبؤية


يقول النائب الأخضر سيين بيري ، أن تقنيات الشرطة التنبؤية تنتهك حقوق الإنسان “في صميمهم” ويجب أن تحظر في المملكة المتحدة ، بعد تقديم تعديل على مشروع قانون الجريمة والشرطة القادم للحكومة.

في حديثه في مجلس العموم خلال مرحلة التقرير من مشروع القانون ، أبرز بيري مخاطر استخدام تقنيات الشرطة التنبؤية لتقييم احتمال ارتكاب جرائم جنائية في المستقبل.

وقالت: “ستحتاج مثل هذه التقنيات ، على الرغم من بيعها بذكاء ، إلى بناء بيانات الشرطة الحالية المعيبة ، أو بيانات من مصادر عامة وخاصة معيبة ومنحازة أخرى”. “هذا يعني أن المجتمعات التي تم تجاوزها تاريخياً ستكون أكثر عرضة للتعرف على أنها” معرضة “للسلوك الإجرامي المستقبلي”.

تعديل بيري (NC30 في ورقة التعديل) – التي رعايتها ثمانية نواب آخرين ، بما في ذلك زارة سلطانا وإيلي تشونز وريتشارد بورغون وكليف لويس – يحظر على وجه التحديد استخدام اتخاذ القرارات الآلية (ADM) ، التنميط والذكاء الاصطناعي (AI) لغرض إجراء تقييمات للمخاطر حول احتمال ارتكاب جرائم جنائية.

سيحظر أيضًا استخدام بعض المعلومات من قبل الشرطة في المملكة المتحدة “للتنبؤ” بسلوك الناس: “تحظر قوات الشرطة في إنجلترا وويلز … التنبؤ بحدوث أو إعادة تكرار جريمة قرمزية فعلية أو محتملة بناءً على تنميط الشخص الطبيعي أو على تقييم السمات الشخصية والخصائص ، بما في ذلك موقع الشخص ، أو السلوك المجرم المجري.

تحدث في المشاع ، جادل بيري كذلك: “كما قلت دائمًا في سياق التعرف على الوجه، مسائل الدقة والتحيز ليست هي السبب الوحيد للاضادة ضد هذه التقنيات. في صميمهم ، ينتهكون حقوق الإنسان ، بما في ذلك الحق في الخصوصية والحق في الافتراض “.

في حين أن السلطات التي تنشر أدوات الشرطة التنبؤية تقول إنه يمكن استخدامها للموارد المباشرة بشكل أكثر كفاءة ، فقد جادل النقاد منذ فترة طويلة بأن هذه الأنظمة تُستخدم هذه الأنظمة لاستهداف المجتمعات الفقيرة والعرقية بشكل متكرر ، حيث كانت هذه المجموعات تاريخياً “مفرطة في البلع” ، وبالتالي تم تمثيلها بشكل مفرط في مجموعات بيانات الشرطة.

هذا ثم يخلق أ حلقة التغذية المرتدة السلبية، حيث تؤدي هذه “التنبؤات” المزعومة إلى مزيد من الإفراط في الخلايا بين المجموعات والمجالات ، وبالتالي تعزيز وتفاقم التمييز الموجود مسبقًا حيث يتم جمع كميات متزايدة من البيانات.

تتبع الانتشار التاريخي لأنظمة الشرطة التنبؤية في كتابهم 2018 الشرطة: دليل ميدانييجادل المؤلفون ديفيد كوريا وتايلر وول بأن مثل هذه الأدوات توفر “بيانات موضوعية على ما يبدو” لسلطات إنفاذ القانون لمواصلة المشاركة في ممارسات الشرطة التمييزية ، “ولكن بطريقة تبدو خالية من التنميط العنصري”.

وأضافوا ذلك “لا ينبغي أن يكون مفاجأة أن الشرطة التنبؤية تحدد عنف المستقبل في فقراء الحاضر”.

نتيجة لمثل هذه المخاوف ، كانت هناك العديد من المكالمات في الأشهر الأخيرة من المجتمع المدني لحكومة المملكة المتحدة لحظر استخدام أدوات الشرطة التنبؤية.

في فبراير 2025 ، على سبيل المثال ، نشرت منظمة العفو الدولية تقريرًا من 120 صفحة حول كيفية “العنصرية الفائقة الشحن” في المملكة المتحدة من خلال استخدام البيانات المتحيزة تاريخيا لاستهداف المجتمعات الفقيرة والعنصرية.

ووجدت أنه في جميع أنحاء المملكة المتحدة ، نشرت ما لا يقل عن 33 قصة شرطة أدوات تنبؤية للشرطة ، مع 32 منها باستخدام أنظمة التنبؤ بالجرائم الجغرافية مقارنة بـ 11 تستخدم أدوات التنبؤ بالجرائم التي تركز على الأشخاص.

وأضاف منظمة العفو أن هذه الأدوات “في خرق صارخ” لالتزامات حقوق الإنسان الوطنية والدولية في المملكة المتحدة لأنها تستخدم في الحصول على أفراد من الناحية العرقية ، وتقويض افتراض البراءة من خلال استهداف الناس قبل أن يشاركوا في جريمة ، وتغذية العشوائية مراقبة جماعية من المناطق والمجتمعات بأكملها.

أكثر من 30 منظمة المجتمع المدني – بما في ذلك Big Brother Watch ، العفو ، مجموعة الحقوق المفتوحة ، التحقيق ، مشروع القانون العام ومشاهدة State -Watch – أيضًا وقعت رسالة مفتوحة في مارس 2025 إثارة المخاوف حول كيفية استخدام فاتورة استخدام البيانات والوصول إليها ، وهو الآن فعل، سوف يزيل الضمانات ضد استخدام اتخاذ القرارات الآلية من قبل الشرطة.

“حاليًا ، يحظر القسمان 49 و 50 من قانون حماية البيانات لعام 2018 اتخاذ القرارات الآلية فقط في سياق إنفاذ القانون ما لم يكن القرار مطلوبًا أو معتمدًا بموجب القانون” ، كما كتبوا في الرسالة ، مضيفين أن البند 80 الجديد ستعكس هذه الحماية عن طريق السماح لاتخاذ القرارات الآلية فقط في جميع السيناريوهات التي لا يتم استخدام بيانات الفئة الخاصة.

“في الممارسة العملية ، هذا يعني أنه يمكن اتخاذ القرارات الآلية حول الأشخاص في سياق إنفاذ القانون على أساس حالتهم الاجتماعية والاقتصادية ، والبيانات الإقليمية أو البريدية ، أو العواطف المستخلصة ، أو حتى لهجات إقليمية. وهذا يوسع إلى حد كبير من إمكانيات التحيز والتمييز وعدم الشفافية”.

وأضافت المجموعات أنه يمكن استخدام بيانات الفئة غير المتخصصة كـ “وكيل” للميزات المحمية ، مع إعطاء مثال على كيفية استخدام الرموز البريدية كبديل لاستنتاج سباق شخص ما.

كما أبرزوا كيف ، وفقًا ل تقييم تأثير الحكومة بالنسبة للقانون ، “أولئك الذين لديهم خصائص محمية مثل العرق والجنس والعمر ، هم أكثر عرضة لمواجهة التمييز من ADM بسبب التحيزات التاريخية في مجموعات البيانات”.

تم توقيع الرسالة أيضًا من قبل عدد من الأكاديميين ، بما في ذلك Brent Mittelstadt و ساندرا واشتر من معهد أوكسفورد للإنترنت ، وعالم الأنثروبولوجيا الاجتماعية تويين أغبيتو من جامعة كلية لندن.

يحاول تعديل منفصل (NC22) الذي قدمته بيري تخفيف مشكلات البيانات هذه من خلال إدخال ضمانات جديدة للقرارات الآلية في سياق إنفاذ القانون ، والذي سيشمل توفير انتصاف ذي معنى ، وشفافية أكبر حول استخدام الشرطة للخوارزميات ، وضمان أن يطلب الناس المشاركة البشرية في أي قرارات شرطة حولها.

في أبريل 2025 ، كما دعت StateWatch بشكل منفصل إلى وزارة العدل (MOJ) إلى وقف تطوير أدوات التنبؤ بالجريمة، بعد الحصول على وثائق من خلال حملة حرية المعلومات (FOI) التي كشفت أن الإدارة تستخدم بالفعل خوارزمية معيبة واحدة “للتنبؤ” بخطر إعادة التوزيع ، وتطوير نظام آخر “للتنبؤ” الذي سيلتكب جريمة قتل.

وقالت صوفيا ليال ، باحثة ولاية ستيت واتش: “إن محاولة وزارة العدل لبناء نظام التنبؤ بالقتل هذا هو أحدث مثال على تقشعر لها الأبدان وعدميك عن نية الحكومة لتطوير أنظمة التنبؤ بجريمة الجريمة”.

“مثل الأنظمة الأخرى من نوعها ، فإنها ستقوم بالترميز تجاه المجتمعات العنصرية والمنخفضة الدخل. إن بناء أداة تلقائية لملف تعريف الأشخاص كمجرمين عنيفين أمر خاطئ للغاية ، واستخدام مثل هذه البيانات الحساسة حول الصحة العقلية ، والإدمان والعجز متقلبة للغاية ومثيرة للقلق.”

وأضافت: “بدلاً من إلقاء الأموال نحو تطوير AI والخوارزميات العنصرية والعنصرية ، يجب على الحكومة الاستثمار في خدمات الرعاية الاجتماعية حقًا. إن إجراء تخفيضات في مجال الرعاية الاجتماعية أثناء الاستثمار في” الإصلاحات السريعة “في حل الحل لا تؤدي إلا إلى زيادة سلامة الأشخاص ورفاههم”.

قبل هذا ، دعا تحالف جماعات المجتمع المدني حكومة العمل التي تنقذ آنذاك في يوليو 2024 لوضع فرض حظر صريح على كل من المراقبة التنبؤية والمراقبة البيومترية في المملكة المتحدة ، على أساس أنها تستخدم بشكل غير متناسب لاستهداف مجتمعات الطبقة العاملة والطبقة العاملة.

مارس 2022 التحقيق في مجلس اللوردات في استخدام تقنيات الخوارزمية المتقدمة من قبل الشرطة في المملكة المتحدة ، حددت سابقًا المخاوف الرئيسية حول استخدام أنظمة التنبؤ بالجريمة ، وتسليط الضوء على ميلها إلى إنتاج “دائرة مفرغة” و “أنماط تمييز موجودة مسبقًا” لأنهم يوجهون دوريات الشرطة إلى المناطق ذات الدخل المنخفض والمفرط بالفعل بناءً على بيانات الاعتقال التاريخية.

وجد اللوردات أنه ، بشكل عام ، تقوم الشرطة في المملكة المتحدة بنشر تقنيات خوارزمية – بما في ذلك الذكاء الاصطناعى و التعرف على الوجه – بدون فحص شامل لفعاليتها أو نتائجها ، وهي “تصنعها مع تقدمها”.



Source link

زر الذهاب إلى الأعلى