أخبار التقنية

يفشل قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي في حماية سيادة القانون والفضاء المدني


الاتحاد الأوروبي (EU) قانون الذكاء الاصطناعي (AI). “فشل في حماية سيادة القانون والفضاء المدني بشكل فعال”، وفقًا لتقييم أجراه المركز الأوروبي للقانون غير الربحي (ECNL).

ال يذاكر يحدد “الثغرات الكبيرة وعدم اليقين القانوني” في قانون الذكاء الاصطناعي، والذي ينص على أنه “تم التفاوض بشأنه ووضع اللمسات النهائية عليه على عجل”. ويخلص أيضًا إلى أن القانون يعطي الأولوية “لمصالح الصناعة والأجهزة الأمنية وهيئات إنفاذ القانون” على سيادة القانون والفضاء المدني.

يحدد تقييم ECNL للقانون خمسة عيوب أساسية، حيث الثغرات في التشريعاتوالثغرات والقرارات الثانوية يمكن أن “تقوض بسهولة الضمانات التي ينص عليها قانون الذكاء الاصطناعي، مما يزيد من تآكل الحقوق الأساسية ومعايير سيادة القانون على المدى الطويل”.

ويشمل ذلك الإعفاء الشامل الممنوح لحالات استخدام الذكاء الاصطناعي في مجال الأمن القومي، بما في ذلك “تحديد الهوية عن بعد”؛ ومحدودية سبل إنصاف الأفراد؛ وضعف متطلبات تقييم الأثر.

منذ اقتراحها الأولي في عام 2021، قامت ECNL بمراقبة المناقشات المحيطة بقانون الذكاء الاصطناعي للاتحاد الأوروبي والمشاركة فيها، ردًا على استخدام أنظمة الذكاء الاصطناعي في مراقبة النشطاء، وتوصيف ركاب الخطوط الجوية، وتعيين قضاة في قضايا المحكمة.

وبعد عملية تشريعية استمرت ثلاث سنوات، وافق البرلمان الأوروبي على القانون الشهر الماضي.

ثغرات القانون

على الرغم من أن أوروبا قد وضعت أول إطار قانوني مستهدف في صناعة الذكاء الاصطناعي، يشير تقرير ECNL إلى عدم وجود “مبادئ توجيهية وأعمال مفوضة لتوضيح المتطلبات الغامضة في كثير من الأحيان”، مما يترك “الكثير لتقدير المفوضية، أو التشريعات الثانوية أو الطوعية”. قواعد السلوك”.

وأضافت أن العديد من المحظورات الواردة في القانون مليئة بالثغرات التي تجعلها “إعلانات فارغة”، بسبب “الاستثناءات البعيدة المدى”. بالإضافة إلى ذلك، هناك عدد من الثغرات الأخرى التي تسمح للشركات والسلطات العامة بالتهرب من الوقوع في نطاق قائمة القانون أنظمة عالية المخاطر.

“على الرغم من الوعود بأن قانون الذكاء الاصطناعي للاتحاد الأوروبي سيضع الناس في مركز الاهتمام، فإن الحقيقة القاسية هي أن لدينا قانونًا لا يوفر سوى القليل جدًا لحمايتنا من التهديدات والأضرار التي يفرضها انتشار أنظمة الذكاء الاصطناعي في جميع مجالات الحياة تقريبًا”. قالت إيلا جاكوبوفسكا، رئيسة قسم السياسة في منظمة الحقوق الرقمية الأوروبية (EDRI) غير الحكومية.

من الناحية العملية، لا يمكن لكبار ضباط الأمن (CSOs) تمثيل الأفراد الذين تم انتهاك حقوقهم إلا عندما يتعلق الأمر بحقوق المستهلك، مما يعني أنه “يمكنهم تقديم شكوى نيابة عن مجموعة من الأشخاص المتضررين، على سبيل المثال من خلال أنظمة تسجيل الائتمان، ولكن ليس على نيابة عن المتظاهرين الذين انتهكت حرياتهم الحية من خلال استخدام المراقبة البيومترية في الشوارع”.

لا يضمن القانون الحق في المشاركة – “لن يُطلب من السلطات العامة أو الشركات التعامل مع أصحاب المصلحة الخارجيين عند تقييم تأثيرات الذكاء الاصطناعي على الحقوق الأساسية”.

استخدام سلطة الدولة للذكاء الاصطناعي

علاوة على ذلك، فإن معايير القانون لتقييم تأثير الحقوق الأساسية (FRIA) للسلطات العامة التي تخطط لاستخدام أنظمة الذكاء الاصطناعي عالية المخاطر ضعيفة، مع ثلاثة عيوب كبيرة: لا يوجد التزام صريح بتقييم هذه التأثيرات؛ لا تملك منظمات المجتمع المدني “وسيلة مباشرة وملزمة قانونًا” للمساهمة في تقييمات الأثر؛ ولن تضطر سلطات إنفاذ القانون والهجرة إلى الكشف عما إذا كانت تستخدم عمليات الذكاء الاصطناعي المحفوفة بالمخاطر.

على نطاق أوسع، يُمنح الذكاء الاصطناعي الذي تم تطويره لأغراض الأمن القومي “إعفاء شاملا”، مما يعني أن الحكومات يمكنها عمليا “استدعاء الأمن القومي لإدخال أنظمة محظورة، مثل المراقبة البيومترية الجماعية” والتهرب من لوائح القانون بشأن أنظمة الذكاء الاصطناعي الخطرة.

“إن الإعفاء الواسع للغاية للأمن القومي يمنح أيضًا البلدان والشركات بطاقة خروج مجانية من السجن لتجاهل القانون بأكمله، كما أن عدم تطبيق القواعد على صادرات التكنولوجيا يظهر أيضًا التفكير المحدود وراء هذا القانون. قال جاكوبوسكا.

وفقًا لكاترينا روديلي، محللة سياسات الاتحاد الأوروبي في مجموعة الحقوق الرقمية Access Now، فإن قانون الذكاء الاصطناعي لا يوفر ضمانات ذات معنى في محتوى الحدود والهجرة، حيث أن “الأنظمة الأكثر خطورة لا يتم حظرها بشكل هادف عند استخدامها من قبل الشرطة وسلطات الهجرة، مثل مثل تحديد الهوية البيومترية عن بعد وأجهزة كشف الكذب”.

وأضافت فيما يتعلق بإعفاء الشرطة وسلطات الهجرة من ذلك التزامات الشفافيةأن “هذه سابقة خطيرة من شأنها تمكين سلطات الدولة من استخدام أنظمة الذكاء الاصطناعي ضد غير المرغوب فيهم في المجتمع: الأشخاص العنصريون أولاً، ولكن على الأرجح بعد ذلك المدافعون عن حقوق الإنسان والصحفيون والمعارضون السياسيون”.

وضع سابقة

وقالت ألكسندرا جيز، نائبة رئيس حزب الخضر/التحالف الحر الأوروبي: “خلال المفاوضات، عملنا بجد لتحقيق حظر كامل على المراقبة البيومترية في الوقت الحقيقي. لسوء الحظ، تم تخفيف قائمة الحظر من قبل المجلس في المراحل النهائية وحتى بعد الثلاثية النهائية. لقد أضاع المجلس الأوروبي الفرصة لحماية مواطنيه بشكل فعال من مراقبة الذكاء الاصطناعي.

وأضافت: “ولكن بدون قانون الذكاء الاصطناعي، لن يكون لدينا أي أداة لمحاسبة صناعة الذكاء الاصطناعي”. “لقد أنشأ الاتحاد الأوروبي أول إطار قانوني في العالم بقواعد متينة ستسمح لنا بتحسين أدوات الذكاء الاصطناعي في المستقبل. ومن خلال معايير واضحة لتطوير واستخدام أنظمة الذكاء الاصطناعي، تمهد أوروبا الطريق لمستقبل تخدم فيه التكنولوجيا الناس مع احترام حقوقنا الأساسية والمبادئ الديمقراطية.

وقالت جاكوبوفسكا إنه على الرغم من ضرورة مواصلة الدفع للنضال من أجل التطبيق الأقوى لقواعد قانون الذكاء الاصطناعي للاتحاد الأوروبي، فمن الواضح أن القانون لا ينبغي أن يصبح مخططًا عالميًا لكيفية حماية الحقوق والديمقراطية في مواجهة الرقمنة المتزايدة للمجتمع.

وأضاف روديلي: “يشكل قانون الذكاء الاصطناعي سابقة خطيرة لأنه يخلق إطارًا موازيًا منفصلاً لسلطات إنفاذ القانون وسلطات الهجرة التي تستخدم أنظمة الذكاء الاصطناعي. سيؤثر هذا المعيار الثاني في المقام الأول على الفئات الأكثر تهميشًا في المجتمع، أي المهاجرين والأشخاص العنصريين في الاتحاد الأوروبي.

وذكرت أيضًا أن الاستخدام القمعي لأنظمة الذكاء الاصطناعي في التشريعات الأخرى بعد هذه السابقة قد بدأ بالفعل، مع التصويت على ميثاق الاتحاد الأوروبي الجديد بشأن الهجرة واللجوء في 10 أبريل. تقنيات المراقبة التي من شأنها أن تندرج ضمن نطاق قانون الذكاء الاصطناعي، ولكن لن يتم تنظيمها بحكم الأمر الواقع على هذا النحو بسبب هذا النظام التنظيمي المتراخي الموازي الذي تم وضعه للشرطة وسلطات الهجرة.

لقد أصدر Access Now أ إفادة حول العلاقة بين قانون الذكاء الاصطناعي وميثاق الهجرة، مع الإشارة إلى كيف سيعزز كلاهما المزيد من المراقبة في الاتحاد الأوروبي.



Source link

زر الذهاب إلى الأعلى