أخبار التقنية

سلطات الرعاية الاجتماعية السويدية تعلق نموذج الذكاء الاصطناعي “التمييزي”


تم تعليق نموذج الذكاء الاصطناعي “التمييزي” (AI) الذي تستخدمه وكالة الضمان الاجتماعي السويدية للإبلاغ عن الأشخاص لإجراء تحقيقات في الاحتيال في الإعانات، وذلك بعد تدخل هيئة حماية البيانات (IMY) في البلاد.

بدءًا من يونيو 2025، تمت المطالبة بمشاركة IMY بعد ذلك تحقيق مشترك من Lighthouse Reports وSvenska Dagbladet (SvB) كشفت في نوفمبر 2024 أن نظام التعلم الآلي (ML) الذي تستخدمه Försäkringskassan، وكالة التأمين الاجتماعي السويدية، كان يشير بشكل غير متناسب وخاطئ إلى مجموعات معينة لإجراء مزيد من التحقيق حول الاحتيال في المزايا الاجتماعية.

وشمل ذلك النساء والأفراد ذوي الخلفيات “الأجنبية” وذوي الدخل المنخفض والأشخاص الذين ليس لديهم شهادات جامعية. ووجدت وسائل الإعلام أيضًا أن النظام نفسه كان غير فعال إلى حد كبير في تحديد الرجال والأثرياء الذين ارتكبوا بالفعل نوعًا من الاحتيال في الضمان الاجتماعي.

هذه النتائج مما دفع منظمة العفو الدولية إلى الدعوة علناً إلى الوقف الفوري للنظام في تشرين الثاني/نوفمبر 2024، والتي وصفتها في ذلك الوقت بأنها “تجرد الإنسانية” و”تشبه مطاردة الساحرات”.

تم تقديمه من قبل Försäkringskassan في عام 2013، وهو النظام القائم على التعلم الآلي يعين درجات المخاطر للمتقدمين للضمان الاجتماعي، الأمر الذي يؤدي بعد ذلك تلقائيًا إلى إجراء تحقيق إذا كانت درجة المخاطرة عالية بما يكفي.

بحسب أ مدونة نشرت IMY في 18 نوفمبر 2025، أن مصلحة التأمينات الاجتماعية (Försäkringskassan) كانت تستخدم النظام على وجه التحديد لإجراء فحوصات مستهدفة على المستفيدين من إعانات إعالة الطفل المؤقتة – والتي تم تصميمها لتعويض الآباء عن أخذ إجازة من العمل عندما يتعين عليهم رعاية أطفالهم المرضى – ولكن تم إخراجها من الاستخدام على مدار تحقيق السلطات.

قال محامي IMY مانس ليسين: “بينما كان التفتيش مستمرًا، قامت وكالة التأمين الاجتماعي السويدية بإيقاف استخدام نظام الذكاء الاصطناعي”. “نظرًا لأن النظام لم يعد قيد الاستخدام وتوقفت أي مخاطر تتعلق بالنظام، فقد قررنا أنه يمكننا إغلاق القضية. تتم معالجة البيانات الشخصية بشكل متزايد باستخدام الذكاء الاصطناعي، لذلك فمن المرحب به أن يتم الاعتراف بهذا الاستخدام ومناقشته. تحتاج كل من السلطات والجهات الأخرى إلى التأكد من أن استخدام الذكاء الاصطناعي يتوافق مع [General Data Protection Regulation] اللائحة العامة لحماية البيانات (GDPR) والآن أيضًا لائحة الذكاء الاصطناعي، والتي تدخل حيز التنفيذ تدريجيًا.

وأضافت IMY أن Försäkringskassan “لا تخطط حاليًا لاستئناف ملف المخاطر الحالي”.

تحت قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي دخل حيز التنفيذ في 1 أغسطس 2024، يجب أن يفي استخدام أنظمة الذكاء الاصطناعي من قبل السلطات العامة لتحديد الوصول إلى الخدمات والمنافع العامة الأساسية بقواعد فنية وشفافية وحوكمة صارمة، بما في ذلك التزام القائمين على النشر بإجراء تقييم لمخاطر حقوق الإنسان وضمان وجود تدابير تخفيف قبل استخدامها. يُحظر استخدام أنظمة محددة تعتبر أدوات للتسجيل الاجتماعي.

اتصلت مجلة Computer Weekly بمؤسسة Försäkringskassan بشأن تعليق النظام، ولماذا اختارت التوقف قبل انتهاء فحص IMY.

وقال متحدث باسم الشركة: “لقد توقفنا عن استخدام ملف تعريف تقييم المخاطر من أجل تقييم ما إذا كان يتوافق مع اللائحة الأوروبية الجديدة للذكاء الاصطناعي”. “ليس لدينا في الوقت الحالي أي خطط لإعادة استخدامه مرة أخرى لأننا نتلقى الآن بيانات الغياب من أصحاب العمل من بين بيانات أخرى، والتي من المتوقع أن توفر دقة جيدة نسبيًا.”

مصلحة الضرائب صرح سابقًا لمجلة Computer Weekly في تشرين الثاني (نوفمبر) 2024، أن “النظام يعمل بالامتثال الكامل للقانون السويدي”، وأن المتقدمين الذين يحق لهم الحصول على المزايا “سيحصلون عليها بغض النظر عما إذا كان طلبهم قد تم الإبلاغ عنه”.

ردًا على ادعاءات Lighthouse وSvB بأن الوكالة لم تكن شفافة تمامًا بشأن الأعمال الداخلية للنظام، أضافت Försäkringskassan أن “الكشف عن تفاصيل كيفية عمل النظام يمكن أن يمكّن الأفراد من تجاوز الكشف”.

أنظمة مماثلة

وقد واجهت أنظمة مماثلة تعتمد على الذكاء الاصطناعي، والتي تستخدمها بلدان أخرى لتوزيع الفوائد أو التحقيق في الاحتيال، مشاكل مماثلة.

في نوفمبر 2024، على سبيل المثال، منظمة العفو الدولية كشف كيفية استخدام أدوات الذكاء الاصطناعي من قبل وكالة الرعاية الاجتماعية في الدنمارك تخلق مراقبة جماعية ضارة، وتخاطر بالتمييز ضد الأشخاص ذوي الإعاقة والمجموعات العنصرية والمهاجرين واللاجئين.

في المملكة المتحدة، تقييم داخلي من قبل وزارة العمل والمعاشات التقاعدية (DWP) – الذي تم إصداره بموجب قواعد حرية المعلومات (FoI) لمشروع القانون العام – وجد أن نظام تعلم الآلة يستخدم لفحص الآلاف من الائتمان العالمي كانت مدفوعات الاستحقاقات تظهر تباينات “ذات دلالة إحصائية” عند اختيار من يجب التحقيق فيه بشأن الاحتيال المحتمل.

وأظهر التقييم الذي تم إجراؤه في فبراير 2024، أن هناك “إحالة ذات دلالة إحصائية… وتفاوت في النتائج لجميع الخصائص المحمية التي تم تحليلها”، والتي شملت عمر الأشخاص، وعمرهم، وعمرهم، وعمرهم، وعمرهم. الإعاقةوالحالة الاجتماعية والجنسية.

انتقدت جماعات الحقوق المدنية لاحقًا برنامج عمل الدوحة في يوليو 2025 بسبب “الافتقار المقلق للشفافية” بشأن كيفية دمج الذكاء الاصطناعي في جميع أنحاء نظام الضمان الاجتماعي في المملكة المتحدة، والذي يتم استخدامه لتحديد أهلية الأشخاص للحصول على خطط الضمان الاجتماعي مثل الائتمان الشامل أو مدفوعات الاستقلال الشخصي.

وفي تقارير منفصلة نُشرت في نفس الوقت تقريبًا، سلطت كل من منظمة العفو الدولية ومنظمة Big Brother Watch الضوء على المخاطر الواضحة للتحيز المرتبط باستخدام الذكاء الاصطناعي في هذا السياق، وكيف يمكن للتكنولوجيا أن يؤدي إلى تفاقم النتائج التمييزية الموجودة مسبقًا في نظام المزايا في المملكة المتحدة.



Source link

زر الذهاب إلى الأعلى