إن نهج الذكاء الاصطناعي “التحرري” الذي تتبعه المملكة المتحدة لن يحمي حقوق الإنسان

سوف يفشل النهج “غير التنظيمي” الذي تتبعه حكومة المملكة المتحدة في التعامل مع الذكاء الاصطناعي (AI) في التعامل مع أضرار التكنولوجيا القابلة للتوسع بدرجة كبيرة، ويمكن أن يؤدي إلى مزيد من الحرمان العام من حقوق التصويت، حسبما استمع التحقيق البرلماني حول الذكاء الاصطناعي وحقوق الإنسان.
تم إطلاق التحقيق في يوليو 2025، لدراسة كيفية حماية حقوق الإنسان في “عصر الذكاء الاصطناعي”، مع التركيز بشكل خاص على الخصوصية واستخدام البيانات، والتمييز والتحيز، وإنشاء سبل انتصاف فعالة للحالات التي تسبب فيها أنظمة الذكاء الاصطناعي انتهاكات.
وفي حديثهم خلال الجلسة الثانية للأدلة في التحقيق في 29 أكتوبر/تشرين الأول 2025، أخبر شهود خبراء اللجنة البرلمانية المشتركة المعنية بحقوق الإنسان أنه، في الوضع الحالي، فإن نهج المملكة المتحدة “غير النقدي وغير التنظيمي” تجاه الذكاء الاصطناعي سيفشل في التعامل مع قضية الذكاء الاصطناعي. الأضرار الواضحة على حقوق الإنسان التي تسببها التكنولوجيا.
وهذا يشمل الأضرار المتعلقة بالمراقبة و اتخاذ القرار الآليوالتي يمكن أن تؤثر بشكل مختلف على الحقوق الجماعية والفردية في الخصوصية وعدم التمييز وحرية التجمع؛ خاصة بالنظر إلى السرعة والحجم الذي تعمل به التكنولوجيا.
“يتم تنظيم الذكاء الاصطناعي في المملكة المتحدة، ولكن فقط بشكل عرضي وليس بشكل جيد … نحن ننظر إلى نظام تم تنظيمه فجوات كبيرة في [regulatory] التغطيةوقال مايكل بيرتويستل، المدير المساعد للقانون والسياسة في معهد آدا لوفليس.
وقال: “ليس لدينا هيئات تنظيمية في العديد من السياقات عالية التأثير التي يُستخدم فيها الذكاء الاصطناعي – التوظيف، والتوظيف، وقطاعات كبيرة من القطاع العام مثل المزايا وإدارة الضرائب”. “لا يوجد لدى منظمي التعليم لدينا مجال واضح لاستخدام التكنولوجيا في المدارس، على سبيل المثال”.
وأضاف بيرتويسل أنه بينما خطة عمل فرص الذكاء الاصطناعي التي نشرتها الحكومة في يناير 2025 تحدد “الطموحات الكبيرة لزيادة اعتماد الذكاء الاصطناعي”، ولا تحتوي إلا على القليل حول الإجراءات التي يمكن اتخاذها لتحقيق ذلك. التخفيف من مخاطر الذكاء الاصطناعي“، ولم يذكر حقوق الإنسان”.
تعميق الحرمان والتمييز
وحذر الخبراء الحاضرون أيضًا من أن النهج الحالي للحكومة – الذي قالوا إنه يفضل النمو الاقتصادي والمصالح التجارية للصناعة قبل كل شيء – يمكن أن يزيد من تعميق الحرمان العام إذا فشل في حماية حقوق الناس العاديين، ويجعلهم يشعرون وكأن التكنولوجيا تُفرض عليهم من أعلى.
تحدث الشهود أيضًا عن خطر قيام الذكاء الاصطناعي بتفاقم العديد من القضايا القائمة، لا سيما فيما يتعلق بالتمييز في المجتمع، من خلال أتمتة العمليات بطرق تعكس عدم المساواة التاريخية أو الظلم في المستقبل.
فيما يتعلق بالحرمان المتزايد من حقوق التصويت، على سبيل المثال، سلط بيرتويستل الضوء على مجموعة من استطلاعات الرأي التي تبحث فيها المواقف العامة تجاه الذكاء الاصطناعي، والتي تظهر جميعها أن الجمهور يريد إعطاء الأولوية للعدالة والسلامة والتأثيرات الاجتماعية الإيجابية للتكنولوجيا، بما يتجاوز الفوائد الاقتصادية، أو سرعة الابتكار، أو المخاوف المتعلقة بالمنافسة الدولية.
وقال: “هناك شعور قوي بالحرمان العام من حقوقه فيما يتعلق بالذكاء الاصطناعي”. “لا يشعر الكثير من الناس أن لديهم رأيًا فيما تفعله الحكومة، ويقترن ذلك بمستويات عالية من القلق بشأن ما إذا كانت الحكومة ستعطي الأولوية للعلاقات مع شركات التكنولوجيا الكبرى، على سبيل المثال”.
أشارت سيلكي كارلو، مديرة مجموعة حملة الخصوصية Big Brother Watch – التي سلطت الضوء أيضًا على “نظرة الحكومة المتفائلة للغاية والتي تركز على التجارة” بشأن الذكاء الاصطناعي – إلى أنه حتى الآن في هذا البرلمان، قانون استخدام البيانات والوصول إليها لقد “قضت DUAA” على سبل حماية الأشخاص ضد اتخاذ القرار الآلي، وذلك من خلال إزالة “الحظر المفترض” وتحريره لجميع الأغراض.
وأضافت أنه ينبغي للحكومة بدلاً من ذلك أن تضع وزناً أكبر على المخاطر الكامنة في الذكاء الاصطناعي، والتي يمكن أن تؤدي إلى ضرر أو ضرر بسرعة وعلى نطاق واسع بطريقة لا تستطيع التكنولوجيات الأخرى القيام بها.
التعرف على الوجه
إعطاء المثال على يتم نشر تقنية التعرف على الوجه المعتمدة على الذكاء الاصطناعي من قبل شرطة المملكة المتحدةوقال كارلو أنه في حين أن هذا صحيح أصبحت التكنولوجيا أكثر دقة ومع تقليل عمليات تحديد الهوية الخاطئة، فإن معدل وحجم معالجة البيانات الجارية يعني أنه حتى لو تأثرت نسبة صغيرة جدًا من الأشخاص سلبًا، فإن ذلك يعني تأثر آلاف الأشخاص بالقيمة الحقيقية.
وقالت: “هناك القليل جدًا من المساءلة والشفافية فيما يتعلق بالتعرف على الوجه، ولكن هناك أنواع أخرى من الذكاء الاصطناعي أيضًا”. “إذا تم تمييزك من قبل العديد من هذه الأنظمة، فقد لا تعرف السبب، وأعتقد أن هذا يتناقض مع القيم البريطانية الأساسية. وهذا يعني أيضًا أن هناك تأثيرًا مخيفًا، لأنه إذا شعرت أن أنظمة المراقبة أو أنظمة الذكاء الاصطناعي الأخرى التي تستخدمها الإدارات الحكومية يمكن أن تراقبك، وتحكم عليك، وتضع علامة عليك، وتتخذ قرارات بشأنك، وأنت لا تعرف السبب أو لا يمكنك تحديها، أعتقد أن هذا يتعارض مع قيمنا الراسخة حول العدالة، وما نتوقعه من السلطات العامة”.
وأضاف كارلو أن هناك إمكانات حقيقية لذلك المراقبة الجماعية المدعومة بالذكاء الاصطناعي إلى “الخروج عن نطاق السيطرة”، وذلك يمكن بسهولة نشر النظام المصمم لغرض واحد لغرض آخر “في غمضة عين”.
وفيما يتعلق بإمكانية الذكاء الاصطناعي في تفاقم المشاكل الاجتماعية والنتائج التمييزية، سلط تيميتوبي لاساد أندرسون، المدير التنفيذي في مؤسسة جليتش الخيرية المناهضة للتمييز، الضوء على كيف تميل مجموعات بيانات الشرطة الحالية إلى الإفراط في تمثيل الأشخاص من خلفيات اجتماعية واقتصادية أقل أو أقليات عرقية معينة.
إعطاء المثال على كيف يتم استخدام الرموز البريدية كوكلاء لفئات سكانية مختلفة من الأشخاصوأضافت أن المناطق الاجتماعية والاقتصادية المنخفضة تميل إلى المشاركة بشكل أكبر مع الشرطة.
وينعكس هذا بعد ذلك في البيانات التي تم جمعها، مما يؤدي بدوره إلى زيادة مشاركة الشرطة في تلك المنطقة، مما يعزز فكرة وجود مشكلات مثل تشكل البيانات التي تم جمعها ونشاط الشرطة حلقة ردود فعل سلبية.
وقالت: “عندما تقوم بتطبيق هذا النوع من قواعد البيانات في أداة آلية، فمن المرجح أن يشير ذلك إلى أن هؤلاء الأشخاص من هذه المنطقة بحاجة إلى المراقبة”، مضيفة أن مجموعات البيانات “المتحيزة” “ببساطة ليست جيدة بما فيه الكفاية” لأنها لن تتعامل مع القضايا الاجتماعية الأساسية التي تعني أن الناس يتعرضون للتمييز في المقام الأول. “يجب أن يكون هناك نوع من الخطوط الحمراء فيما يتعلق بالأمور التي لا يشارك فيها الذكاء الاصطناعي”.
المشاركة العامة والإنصاف الفعال
ناقش الشهود أيضًا بمزيد من التفصيل ما هو مطلوب لتنظيم فعال للذكاء الاصطناعي في المملكة المتحدة، والذي تضمن إنشاء قواعد خاصة بالقطاع تتعامل مع الفروق الدقيقة في استخدام التكنولوجيا في سياق كبير، وهيكلة هذه اللوائح بحيث التقاط كل جزء من دورة حياة نظام معين.
وقالوا أيضا وكان هناك حاجة إلى التركيز على “الإبداع المشترك” لبناء الثقة مع الجمهور و تجنب فرض التكنولوجيا من “في الأعلى” إلى وادي السيليكون أو البيروقراطيات الحكومية المجهولة الهوية.
يتحدث خلال اجتماعات اللجنة الجلسة الأولى في 2 يوليو 2025، قال ديفيد ليزلي، مدير الأخلاقيات وأبحاث الابتكار المسؤول بمعهد آلان تورينج، في وقت سابق أيضًا إن هناك حاجة ملحة “لتشكيل النظم البيئية للابتكار بحيث يكون هناك تمكين أكبر، وليس أقل، لأفراد الجمهور”.
وقال: “يجب أن يشارك الجمهور في هذه القرارات المتعلقة باستخدام وتصميم ونشر الأنظمة وجمع البيانات حتى يمكن أن يكون هناك تحديدات عامة هيكلية لما هو مقبول وما هو غير مقبول”.
ومع ذلك، خلال الجلستين، كان الشهود واضحين بأن كل هذا يحتاج إلى الدعم من خلال إنشاء آليات قوية للانتصاف، والتي من شأنها أن تسمح للناس بتحدي أنظمة الذكاء الاصطناعي بشكل فعال وحماية حقوقهم.
“ال [current] قال بيرتويستل، الذي سلط الضوء أيضًا على كيفية تضخيم مشكلة الانتصاف غير الفعال من خلال قانون DUAA الحكومي، والذي وسع مجموعة الشروط التي يسمح فيها باتخاذ القرار الآلي في المملكة المتحدة، “إن الآليات الخاصة بالممارسة الفعلية لحقوق البيانات الخاصة بك وحقوق الإنسان الخاصة بك … لن تعمل بالنسبة لمعظم الناس. من الصعب للغاية الحصول على الانتصاف. من الناحية العملية، هذا مكلف للغاية، ومن غير المرجح أن تنجح فيه.
وتحدث أيضًا خلال جلسة الأدلة الأولى للجنة، منظمة العمل الدولية اتفق المحامي والمدير القانوني رافي نايك على أنه في حين أن العناصر التنظيمية مثل المساءلة والشفافية مهمة، ويجب أن تنطبق على “سلسلة الجهات الفاعلة المعنية” بأكملها، فإن العامل الرئيسي هو الإنصاف؛ وهو أمر يصعب تحقيقه بالفعل في ظل إطار حقوق الإنسان الحالي في المملكة المتحدة والنظام القانوني الباهظ التكلفة.
وفيما يتعلق بإطار حقوق الإنسان، أشار نايك إلى أن الأمر يتعلق حاليًا بالجهات العامة، في حين أن أنظمة الذكاء الاصطناعي غالبًا ما يتم إنشاؤها والتحكم فيها من قبل شركات التكنولوجيا الخاصة التي “تميل إلى إبقاء قفل” عمليات صنع القرار والتطوير لديها.
وقال: “أود أن أحث هذه اللجنة بقوة على النظر في قدرة المنظمين على النظر في كيفية صنع الأنظمة وسبب اتخاذ القرارات”.
“يُقال إن العديد من الأنظمة مملوكة ومغطاة بتشريعات الأسرار التجارية؛ ومع ذلك، غالبًا ما يكون ذلك بمثابة ستار من الدخان لأن النماذج متاحة للجمهور من خلال المصدر المفتوح، على سبيل المثال، من خلال منصة تسمى Hugging Face. وقد يكون لدى المنظمين القدرة على التحقيق، لكنهم يحتاجون أيضًا إلى امتلاك المهارات اللازمة للنظر في التكنولوجيا. ولا يمكن أن يتعين على الأفراد اتخاذ مثل هذا الإجراء.”
وعلق نايك أيضًا على تكلفة رفع دعاوى قضائية في المملكة المتحدة، خاصة ضد الجهات الفاعلة الخاصة، وهو أمر محظور بالنسبة لمعظم الناس العاديين. وقال: “نحن نتحدث عن مبالغ من سبعة أرقام لرفع دعوى ضد جهة فاعلة خاصة فقط لدعم حقوقك، ناهيك عن المطالبة بالتعويضات”. “يجب أن يكون هذا عائقًا رئيسيًا أمام المساءلة في هذا المجال.
واقترح نايك على اللجنة ضرورة تقديم المساعدة القانونية للأشخاص حتى يتمكنوا من اتخاذ إجراءات ضد الجهات الخاصة، وليس الحكومة فقط. وقال: “إذا ارتكبت جهة حكومية خطأً في مجال حقوق الإنسان، فإن معظم الناس سيحصلون على المساعدة القانونية لمقاضاة قضيتهم”. “إن نظام المساعدة القانونية موجود لجعل الحكومة خاضعة للمساءلة؛ وهذا هو الغرض الأساسي منه، وهو أداة قوية حقًا لضمان المساءلة.
قال نايك: “كان السبب وراء تقديم المساعدة القانونية للجهات الحكومية هو مسألة السلطة، لكنني أود أن أتساءل من الذي يتمتع بالسلطة الآن”. “في الفضاء الرقمي، يوجد قدر كبير من السلطة في أيدي القطاع الخاص. لذلك، عندما نفكر في كيفية محاولة تصحيح الخطأ، فإن هذه هي بعض المفاهيم والعقبات الأساسية التي تواجهنا”.




