كل شيء ، في كل مكان ، في وقت واحد: اتخاذ القرارات الآلية في الخدمات العامة

الشهر الماضي ، حكومة المملكة المتحدة أعلن خطط لـ “Mainlineai في الأوردة” للأمة و “تحدث ثورة في كيفية استخدام الذكاء الاصطناعي في القطاع العام”. على الرغم من هذا الالتزام العام بالذات ، فإن الإدارات الحكومية وضعت الأساس لهذا التبني لسنوات ، حيث تجربت أدوات خوارزمية وراء الأبواب المغلقة.
هذا الشبح من الذكاء الاصطناعى يسحب الأوتار على القرارات المتعلقة بصحتنا ورفاهيتنا والتعليم والعدالة دون معرفتنا أو التدقيق هو كابوس kafkaesque. الآن فقط بدأنا في الحصول على صورة لكيفية استخدامها.
منذ فبراير 2024 ، طلبت وزارة العلوم والابتكار والتكنولوجيا جميع إدارات الحكومة المركزية نشر معلومات واضحة حول استخدامها للأدوات الخوارزمية على معيار تسجيل الشفافية الخوارزمية (ATRS) مَركَز. ومع ذلك ، تم حتى الآن فقط 47 سجلًا تم الإعلان عنها من قبل مختلف الإدارات الحكومية – تم نشر أكثر من نصفها منذ بداية هذا العام.
هذا عدم الاعتماد تجاه الشفافية أمر مثير للقلق بشكل خاص ، بالنظر إلى التقارير التي تفيد بأن طيارو الذكاء الاصطناعى المعتمدين لنظام الرفاه هو بهدوء ريف بسبب “الإحباطات والبدايات الخاطئة”.
ال الإضافات الحديثة إلى ATRS تكشف أن الحكومة تستخدم أدوات خوارزمية للتأثير على القرارات الحرجة ، بما في ذلك المخصصات المؤهلة لبدل التوظيف والدعم (ESA) ، والتي يتعرض لها تلاميذ المدارس لخطر أن يصبحوا “neet” (وليس في التعليم أو التوظيف أو التدريب) ، و الأحكام وشروط الترخيص التي ينبغي منحها للجناة.
مع القليل من المعلومات المتاحة ، من المفيد السؤال: كم عدد الإدارات الحكومية التي تستخدم سراً خوارزميات لاتخاذ قرارات بشأن حياتنا؟
في نفس الوقت الذي يدفع فيه اعتماد AI الجماعي في القطاع العام ، فإن الحكومة تدفع من خلال التشريعات التي من شأنها أن تضعف الحماية القائمة ضد اتخاذ القرارات الآلية (ADM).
تحظر لائحة حماية البيانات العامة في المملكة المتحدة (GDPR) حاليًا أي عملية آلية فقط تتخذ قرارات مهمة. هذا يحمينا من سيناريوهات “الكمبيوتر لا” حيث نواجه نتائج سلبية دون أي فهم حقيقي للسبب وراءهم. ال فاتورة استخدام البيانات والوصول إليها (DUAB) من شأن التقدم الذي يتقدم حاليًا عبر مجلس العموم إزالة هذه الحماية من مجموعة واسعة من عمليات صنع القرار ، مما يتركنا معرضين للتمييز والتحيز والخطأ دون أي ملاذ لتحديها.
سيسمح مشروع القانون فقط باتخاذ القرار الآلي ، شريطة أن لا يعالج “بيانات الفئة الخاصة”. تتضمن هذه الفئة الفرعية الحساسة بشكل خاص للبيانات الشخصية البيانات البيومترية والوراثية ؛ البيانات المتعلقة بصحة الشخص أو الحياة الجنسية أو التوجه الجنسي والبيانات التي تكشف عن الأصل العنصري أو العرقي ؛ المعتقدات الدينية أو الفلسفية السياسية ؛ والعضوية النقابية.
في حين أن الحماية الصارمة لهذه الفئات الخاصة من البيانات هي قرارات معقولة ، إلا أن بيانات الفئة غير المميزة لا تزال تنتج نتائج ضارة وتمييزية.
على سبيل المثال ، فوائد رعاية الأطفال الهولندية فضيحة تضمنت استخدام خوارزمية التعلم الذاتي التي وضعت العائلات ذات الدخل المنخفض والإثني بشكل غير متناسب مع مخاطر الاحتيال على الرغم من عدم معالجة بيانات الفئة الخاصة. دفعت الفضيحة الآلاف من الناس إلى فقر بعد أن تم التحقيق فيها بشكل غير صحيح وأجبروا على سداد الديون التي لم يدينوا بها ؛ تسبب قلق الوضع في انهيار العلاقات وحتى دفع الناس إلى أخذ حياتهم الخاصة.
أقرب إلى المنزل ، فضيحة الدرجات على مستوى خلال الوباء Covid ، أنتجت نتائج غير متكافئة بين طلاب التعليم الخاص والدولة الخاصة ، وأثار الغضب العام على الرغم من عدم الاعتماد على نظام الدرجات على معالجة بيانات الفئة الخاصة.
يمكن أن تعمل بيانات الفئة غير الخاصة أيضًا بمثابة وكيل لبيانات الفئة الخاصة أو الخصائص المحمية. على سبيل المثال ، أداة مخاطر تقييم الأضرار التي أطلقتها دورهام دورهام الآن (هارت) تقييم مخاطر النكوص من الجناة من خلال معالجة 34 فئة من البيانات ، بما في ذلك نوعين من الرمز البريدي السكني. ال استخدام بيانات الرمز البريدي في البرامج التنبؤية المخاطرة بتضمين التحيزات الحالية من الإفراط في السيطرة في مناطق الحرمان الاجتماعي والاقتصادي. إن تجريد الضمانات القليلة التي نواجهها حاليًا تخاطر بآخر كارثة على غرار الأفق أكبر.
الأهم من ذلك ، لا يعتبر القرار آليًا عندما يكون هناك مشاركة بشرية ذات مغزى. في الممارسة العملية ، قد يبدو هذا بمثابة قسم للموارد البشرية يراجع قرارات أداة توظيف الذكاء الاصطناعى قبل تحديد من الذي يجب مقابلة أو بنك باستخدام أداة البحث الائتمانية الآلية كعامل واحد عند تقرير ما إذا كان سيتم منح قرض لمقدم الطلب. هذه القرارات لا تجذب الحماية التي تنطبق على ADM فقط.
يحيط القطاع العام حاليًا ببعض المحظورات على الاعتماد من خلال الإشارة إلى المدخلات البشرية في عملية صنع القرار. ومع ذلك ، فإن مجرد وجود إنسان في الحلقة لا يساوي بالضرورة مشاركة “ذات مغزى”.
على سبيل المثال ، و وزارة العمل والمعاشات التقاعدية (DWP) ينص على أنه بعد أن تقدم أداة المطابقة الطبية عبر الإنترنت في ESA ملف تعريف مطابق ، يقوم “وكيل بإجراء مراجعة للحالة” لتحديد ما إذا كان ينبغي منح المطالبة.
ومع ذلك ، فإن تقييم المخاطر للوزارة يعترف أيضًا بأن الأداة يمكن أن تقلل من معنى قرار الوكيل البشري إذا قبلوا ببساطة الاقتراح الخوارزمي. هذا “تحيز الأتمتة” يعني أن العديد من القرارات الآلية التي لها مشاركة بشرية سطحية لا تصل إلى أكثر من ختم المطاط لمنطق الماكينة من المرجح أن تتكاثر في القطاع العام-دون جذب أي من الحماية ضد المعترف فقط.
إن مسألة المشاركة الإنسانية ذات مغزى تعتمد بالضرورة على السياق. أمستردام محكمة الاستئناف وجدت أن قرار Uber بسائقي “Fire-Fire” لم يشمل مدخلات إنسانية ذات معنى ، حيث لم يُسمح للسائقين بالاستئناف وأن موظفي Uber الذين اتخذوا القرار ليس لديهم بالضرورة مستوى المعرفة لتشكيل النتيجة بشكل مفيد من الجهاز اقتراح.
من الواضح أن تعريف رجل واحد من معنى يختلف عن الآخر. يمنح DUAB وزير الخارجية للعلوم والابتكار والتكنولوجيا صلاحيات واسعة لإعادة تعريف شكل هذا في الممارسة العملية. هذا يعرضنا جميعًا لخطر التعرض لقرارات آلية تتم الموافقة عليها بشكل سطحي من قبل البشر دون الوقت أو التدريب أو المؤهلات أو الفهم لتكون قادرة على توفير مدخلات.
ال احتضان مبتهج من الذكاء الاصطناعى من قبل حكومة المملكة المتحدة قد يكون علامة على العصر ، ولكن الانتشار غير المحدد لاتخاذ القرارات الآلية من خلال القطاع العام وضعف الحماية ذات الصلة يشكل خطرًا علينا جميعًا.