اتهم DWP بحماية عمليات نشر الذكاء الاصطناعي من التدقيق العام

سلطت مجموعات الحقوق المدنية الضوء على “الافتقار إلى الشفافية القلق” في كيفية تضمين وزارة العمل والمعاشات التقاعدية (DWP) الذكاء الاصطناعي (AI) في نظام الضمان الاجتماعي في المملكة المتحدة.
وفقًا للتقارير المنفصلة عن منظمة العفو الدولية و Big Brother Watch ، التي نشرت في أوائل يوليو 2025 ، فإن الاستخدام الغامق لأنظمة الذكاء الاصطناعى من قبل الإدارة لتحديد أهلية الناس لمخططات الضمان الاجتماعي مثل الائتمان العالمي (UC) أو دفع الاستقلال الشخصي (PIP) له “عواقب وخيمة” لمطالبي المنافع.
سلطت كلتا المنظمتين الضوء على مخاطر واضحة للتحيز المرتبط باستخدام الذكاء الاصطناعى في هذا السياق ، وكيف يمكن للتكنولوجيا تفاقم النتائج التمييزية الموجودة مسبقًا في نظام فوائد المملكة المتحدة.
كما قاموا بتفصيل كيف تقوض هذه الأنظمة بيانات المطالبين وحقوق الخصوصية ، وتعاملهم على أنها مشبوهة تلقائيًا حسب التصميم.
ومع ذلك ، على الرغم من هذه المخاطر ، يقولون إن DWP خلقت “جدارًا من السرية” حول كيفية عمل أنظمة الذكاء الاصطناعى ، مما يترك الناس في الظلام حول كيفية اتخاذ قرارات مهمة تؤثر على حياتهم اليومية.
وقالت مجموعة حملة الخصوصية: “تُظهر وثائق DWP الداخلية التي حصلت عليها Big Brother Watch أن نموذج Advances Universal Universal ، الذي كان يستخدم للمخاطرة بنحو مليون مطالبات كل عام ، يعرض تحيزًا ثابتًا وذات دلالة إحصائية”.
“تحليلات الإنصاف لنموذج التقدم وسلسلة من الأدوات التجريبية الأخرى تظهر ذلك تم العثور على تباينات الخوارزمية بالنسبة للعمر ، والجنسية ، وحالة العلاقة والأمراض المبلغ عنها – أكثر ما يثير القدر لأن هذه الخصائص تستخدم أيضًا الوكلاء للعرق والوضع الزوجي والإعاقة. “
رفض نشر المعلومات بصراحة
وأضاف Big Brother Watch أن تشغيل “آلة الشك” من DWP قد تم حمايته من التدقيق العام بسبب رفضها لنشر المعلومات علانية.
تم تقديم نقاط مماثلة من قبل منظمة العفو ، مما أضاف أن DWP يبرر عتامه على أساس أن الكشف عن المعلومات يمكن أن يمكّن الأفراد من استغلال نظام المنافع. وقالت: “هذا يسيء فهمه بشكل أساسي كيف تكون هذه الأنظمة في كثير من الأحيان تمييزية وتوضح اعتماد نهج عقابي”.
“تعتمد هذه الأنظمة غالبًا على خصائص الهوية لإنشاء ملفات تعريف أو درجات مخاطر ، والتي يتم إصلاحها بالنسبة لـ” العرق “أو” الإعاقة “وبالتالي لا يمكن تغييرها من قبل الفرد لخداع النظام. وهذا ينتج عنه نظام يتم تحسينه للكشف عن الاحتيال ، بدلاً من أن يتم تحسينه لخدمة غالبية الطلبات التي لا تزال غير قادرة على اكتشاف حالات الغش في الغش”.
لذلك ، تدعو كلتا المنظمتين إلى مزيد من الشفافية من حكومة المملكة المتحدة حول كيفية استخدامها لأدوات البيانات عالية الخطورة ، بحيث يمكن اعتبار DWP لحساب الآثار السلبية لأنظمتها ، ويمكن للناس تحدي القرارات الخاطئة عنها.
وقال جيك هورفورت ، رئيس الأبحاث والتحقيقات في Big Brother Watch: “إن طرح DWP المستمر للأدوات الخوارزمية عالية التقنية ، والتي وجدت أن تقييماتها مليئة بالتحيز ، مثيرة للقلق”. “يصبح هذا أكثر أهمية عندما يختبئ DWP خلف جدار من السرية ويرفض الكشف عن المعلومات الرئيسية التي من شأنها أن تسمح للأفراد المتأثرين والجمهور بفهم كيفية استخدام الأتمتة للتأثير على حياتهم ، ومخاطر التحيز والخصوصية المعنية.
“بدلاً من الضغط على الأمام ، يجب أن يتراجع DWP إلى الوراء وتوقف استخدام أي نموذج يحتوي على تباينات غير مفسرة ، ويجب أن يصبح أكثر شفافية حول كيفية استخدام أدوات التقنية العالية. من الخطأ أن يخضع ملايين الأبرياء لقرارات أتمتة أو خوارزمية غامضة ، ويرفض توضيح كيفية عمل هذه العمل.”
وقالت منظمة العفو في تقريرها إنه على الرغم من أن “الآثار الواقعة” لأنظمة الذكاء الاصطناعى في DWP تتضح من تجارب الناس في التفاعل معهم وما تم الكشف عنه من قبل مجموعات المجتمع المدني ، فإن الآثار الكاملة لا يمكن أن تكون معروفة حقًا دون شفافية أكبر. وقال “بدون شفافية حول استخدام التكنولوجيا ، لا يمكن أن يكون هناك تقييم ذي معنى لما إذا كانت هذه الأنظمة تعمل بكفاءة أو قانونية ، وما إذا كان التمييز يحدث أم لا”.
أبرزت Big Brother Watch بالمثل كيف مثل المستندات مثل تقييمات تأثير حماية البيانات تحتوي على تفاصيل حيوية حول الأنظمة – بما في ذلك أنواع البيانات الشخصية التي تقوم بمعالجتها وكيفية استخدامها في نهاية المطاف من قبل النماذج ، وكذلك كيفية تلبية الاختبارات القانونية حول التناسب والضرورة – لا يتم الكشف عنها ، أو يتم تنقيحها بشكل كبير إذا تم نشرها.
“يستخدم DWP تهديد الاحتيال على الرعاية الاجتماعية كبطاقة خالية من السجن للعمل سراً ، ولكن مع أدوات التعلم الآلي تسمح بوضوح بتوصيف الإضاءة البشرية على نطاق واسع ، هناك حاجة إلى مزيد من التدقيق والشفافية-وليس أقل”.
وأضاف Imogen-Richmond Bishop ، باحث في التكنولوجيا ، الحقوق الاقتصادية والاجتماعية والثقافية في منظمة العفو الدولية ، أن مهمة DWP للحد من التكلفة هي في صميم الاعتماد المفرط على هذه التقنيات الإشكالية. وقالت: “الناس يكافحون من أجل تغطية نفقاتهم ويضعون الطعام على الطاولة بسبب التخفيضات في الضمان الاجتماعي ، ومع ذلك فإن DWP أكثر قلقًا بشأن التقنيات التجريبية لاستقصاء المطالبين”.
“إن النظام الذي يدعم التكنولوجيا للمطالبة وإدارة مزايا الرعاية الاجتماعية يؤدي إلى تجاهل لا هوادة فيه وإجهادهم للأشخاص الذين يتصارعون بالفعل للوصول إلى احتياجاتهم الأساسية في نظام مكسور.”
كما أبرزت منظمة العفو في تقريرها أنه على الرغم من الهدف المعلن لـ DWP المتمثل في “توفير التكاليف” ، فإنه يشك في ما إذا كانت هذه المدخرات المعلنة ستتحقق فعليًا.
وقالت: “لقد أعرب مكتب التدقيق الوطني في المملكة المتحدة عن شكوكه في أن هذه المدخرات ستتحقق من أي وقت مضى”. “اعتبارًا من عام 2024 ، تقدر DWP أنه منذ عام 2010 ، تكلف 2.9 مليار جنيه إسترليني لتنفيذ جامعة كاليفورنيا. هذه التكاليف المتزايدة وتواريخ الانتهاء المتأخرة باستمرار تثير التشكيك فيما إذا كان من الممكن لعملية الرقمنة تقديم الكفاءة والتوفير في التكاليف التي تم استخدامها لتبرير مقدمةها.”
تعليق DWP
اتصلت الكمبيوتر الأسبوعية بـ DWP حول كلا التقريرين والمطالبات التي قدمت حول استخدامها للذكاءات الاصطناعية في جميع أنحاء نظام الضمان الاجتماعي.
وقال متحدث باسم “نريد تحسين التجربة لكل من يحتاج إلى الوصول إلى خدماتنا واستخدامها ، وتلعب التكنولوجيا دورًا مهمًا في ذلك”.
“نحن نضمن أن الضمانات المناسبة موجودة لضمان الاستخدام القانوني والمتناسب والأخلاقي للبيانات والتكنولوجيا. يتم اتخاذ جميع القرارات المتعلقة باستحقاق الفوائد أو الدفع من قبل موظفي DWP ، الذين ينظرون إلى جميع الأدلة المتاحة.”




