أخبار التقنية

TUC تنشر مقترحًا تشريعيًا لحماية العمال من الذكاء الاصطناعي


نشر مؤتمر نقابات العمال (TUC) قانونًا “جاهزًا للتنفيذ” لتنظيم الذكاء الاصطناعي (AI) في مكان العمل، ويحدد مجموعة من الحقوق القانونية الجديدة ووسائل الحماية لإدارة الآثار السلبية لعملية اتخاذ القرار الآلي في مكان العمل. عمال.

تطبيق أ النهج القائم على المخاطر مماثل للنهج الذي اتبعه الاتحاد الأوروبي في قانون الذكاء الاصطناعي الذي تم إقراره مؤخرًا، مشروع قانون الذكاء الاصطناعي (التوظيف والتنظيم) الخاص بـ TUC تهتم إلى حد كبير باستخدام الذكاء الاصطناعي في اتخاذ القرارات “عالية المخاطر”، والتي تحددها عندما ينتج النظام “آثارًا قانونية أو تأثيرات أخرى ذات أهمية مماثلة”.

وقال TUC إن الذكاء الاصطناعي يُستخدم في جميع أنحاء الاقتصاد لاتخاذ قرارات مهمة بشأن الأشخاص، بما في ذلك ما إذا كانوا سيحصلون على وظيفة، وكيف يؤدون عملهم، وأين يقومون به، وما إذا كانوا يكافأون، أو يتم تأديبهم، أو الاستغناء عنهم.

وأضافت أن استخدام أنظمة الذكاء الاصطناعي لإدارة العمال خوارزميًا بهذه الطريقة له بالفعل “تأثير كبير” عليهم، ويؤدي إلى نتائج تمييزية وغير عادلة، ونقص السيطرة على البيانات، وفقدان الخصوصية والأمور العامة. تكثيف العمل.

“إن قانون العمل في المملكة المتحدة يفشل ببساطة في مواكبة السرعة السريعة للتغير التكنولوجي. وقالت كيت بيل، الأمين العام المساعد لـ TUC: “إننا نخسر السباق لتنظيم الذكاء الاصطناعي في مكان العمل”.

إن قانون العمل في المملكة المتحدة يفشل ببساطة في مواكبة السرعة السريعة للتغير التكنولوجي. نحن نخسر السباق لتنظيم الذكاء الاصطناعي في مكان العمل

كيت بيل، TUC

“يقوم الذكاء الاصطناعي بالفعل بإجراء مكالمات تغير الحياة في مكان العمل – بما في ذلك كيفية تعيين الأشخاص وإدارة الأداء وفصلهم من العمل. نحن بحاجة ماسة إلى وضع حواجز حماية جديدة لحماية العمال من الاستغلال والتمييز. يجب أن تكون هذه أولوية وطنية”.

وأضاف آدم كانتويل كورن، رئيس الحملات والسياسات في مجموعة الحملات Connected by Data، والتي شاركت في صياغة مشروع قانون الذكاء الاصطناعي (التوظيف والتنظيم): “في النقاش حول كيفية جعل الذكاء الاصطناعي أكثر أمانًا، نحتاج إلى تجاوز الغموض. الأفكار وتحويل القيم والمبادئ إلى حقوق ومسؤوليات قابلة للتنفيذ. وهذا ما يفعله مشروع القانون بالضبط ويضع علامة رئيسية لما سيأتي بعد ذلك.

على الرغم من أن حكومة المملكة المتحدة تقول الآن ومن الممكن إدخال قواعد ملزمة في المستقبل لأنظمة الذكاء الاصطناعي الأكثر خطورةلقد كانت مترددة حتى الآن في وضع قوانين للذكاء الاصطناعي، وذكر في مناسبات متعددة أنه لن يصدر تشريعًا حتى يحين الوقت المناسب.

الحقوق والمسؤوليات القابلة للتنفيذ

مع التركيز على توفير الحماية والحقوق للعمال والموظفين والباحثين عن عمل والنقابات العمالية – بالإضافة إلى التزامات أصحاب العمل وأصحاب العمل المحتملين – تشمل الأحكام الرئيسية لمشروع القانون إلزام أصحاب العمل بإجراء تقييمات مفصلة لمخاطر الذكاء الاصطناعي في مكان العمل (WAIRAs) قبل وبعد النشر، وإنشاء سجلات لأنظمة اتخاذ القرار العاملة بالذكاء الاصطناعي، وعكس عبء الإثبات في قضايا التوظيف لتسهيل إثبات التمييز في مجال الذكاء الاصطناعي في العمل.

وبموجب إطار WAIRA، سينشئ مشروع القانون أيضًا عمليات تشاور مع العمال، وهو حق قانوني للنقابات العمالية في التشاور معها قبل أي عمليات نشر عالية المخاطر، ويفتح الوصول إلى معلومات الصندوق الأسود حول الأنظمة التي من شأنها أن تضع العمال والنقابات في موقف صعب. وضع أفضل لفهم كيفية عمل الأنظمة.

وتشمل الأحكام الأخرى فرض حظر كامل على التعرف على المشاعر العلمية الزائفة، جري صناديق الرمل التنظيمية لاختبار أنظمة جديدة حتى يتمكن تطوير الذكاء الاصطناعي من الاستمرار في بيئة آمنة، ودفاع تدقيق جديد لأصحاب العمل يسمح لهم بالدفاع ضد دعاوى التمييز إذا استوفوا معايير التدقيق الصارمة.

ويمنح مشروع القانون أيضًا مجموعة من الحقوق للعمال، بما في ذلك الحق في الحصول على بيان شخصي يشرح كيف يتخذ الذكاء الاصطناعي قرارات عالية المخاطر بشأنهم، والحق في المراجعة البشرية للقرارات الآلية، الحق في قطع الاتصالوحق النقابات في الحصول على نفس البيانات حول العمال التي سيتم منحها لنظام الذكاء الاصطناعي.

وقال TUC إن هذه الإجراءات المجمعة ستقطع شوطا طويلا في معالجة الخلل الحالي في التوازن في السلطة على البيانات في العمل.

وقال روبن ألين كيه سي ودي ماسترز من كلويسترز في بيان مشترك: “إن القواعد القانونية والتنظيم القوي ضرورية بشكل عاجل لضمان تقاسم فوائد الذكاء الاصطناعي بشكل عادل وتجنب أضرارها”. “لقد جادل عدد لا يحصى من المعلقين حول الحاجة إلى السيطرة على الذكاء الاصطناعي في العمل، ولكن قبل اليوم لم يكن أحد قد قام بالمهمة الثقيلة اللازمة لصياغة التشريع”.

نهج تعاوني متعدد أصحاب المصلحة

في حين تمت صياغة النص من قبل شركة استشارات قانون الذكاء الاصطناعي في كلويسترز تشامبرز بمساعدة مركز مينديرو للتكنولوجيا والديمقراطية بجامعة كامبريدج، فقد تم صياغة مشروع القانون نفسه من قبل لجنة استشارية خاصة أنشأها TUC في سبتمبر 2023.

وفي المناقشة حول كيفية جعل الذكاء الاصطناعي أكثر أمانا، يتعين علينا أن نتجاوز الأفكار الغامضة وأن نحول القيم والمبادئ إلى حقوق ومسؤوليات قابلة للتنفيذ. يفعل مشروع القانون هذا بالضبط ويضع علامة رئيسية لما سيأتي بعد ذلك

آدم كانتويل كورن، متصل بالبيانات

شدد مؤتمر TUC، المليء بممثلين من مجموعة متنوعة من أصحاب المصلحة – بما في ذلك معهد Ada Lovelace، ومعهد Alan Turing، وConnected by Data، وTechUK، وجمعية الكمبيوتر البريطانية، وUnited Tech and Allied Workers، وGMB، ونواب من مختلف الأحزاب – على أهمية النهج التعاوني ومتعدد أصحاب المصلحة في تطوير سياسات الذكاء الاصطناعي.

وأضافت أنه على الرغم من وجود مجموعة من القوانين التي تنطبق على استخدام التكنولوجيا في العمل، بما في ذلك اللائحة العامة لحماية البيانات في المملكة المتحدة (GDPR)، ولوائح المعلومات والاستشارات، وقواعد الصحة والسلامة المختلفة، والاتفاقية الأوروبية لحقوق الإنسان. الحقوق (ECHR) – لا تزال هناك ثغرات كبيرة في الإطار القانوني الحالي.

وتشمل هذه الافتقار إلى الشفافية وقابلية التفسير، والافتقار إلى الحماية ضد الخوارزميات التمييزية، وعدم توازن السلطة على البيانات، والافتقار إلى صوت العمال ومشاوراتهم.

تم تقديم مشروع قانون آخر للذكاء الاصطناعي يركز على العمال من قبل النائب العمالي ميك وايتلي في مايو 2023، والتي ركزت بالمثل على الحاجة إلى التشاور الهادف مع العمال حول الذكاء الاصطناعي، والحاجة إلى تقييمات الأثر الإلزامية وعمليات التدقيق، وإنشاء حق رسمي في قطع الاتصال.

في حين تمت قراءة مشروع القانون هذا لأول مرة في نفس الشهر، فإن تأجيل البرلمان في أكتوبر 2023 قبل قراءته الثانية في نوفمبر يعني أنه لن يحرز المزيد من التقدم.

أ تم تقديم مشروع قانون منفصل للذكاء الاصطناعي من قبل اللورد المحافظ اللورد كريس هولمز عندما عاد البرلمان، والتي شددت على الحاجة إلى “مشاركة عامة هادفة وطويلة الأمد حول الفرص والمخاطر التي يمثلها الذكاء الاصطناعي”.

التحدث إلى Computer Weekly في مارس 2024وقال هولمز إن نهج “الانتظار والترقب” الذي تتبعه حكومة المملكة المتحدة لتنظيم الذكاء الاصطناعي ليس جيدًا بما يكفي عندما تحدث أضرار حقيقية في الوقت الحالي.

“يقع الناس بالفعل على الجانب الخطأ من قرارات الذكاء الاصطناعي في التوظيف، وفي القائمة المختصرة، وفي التعليم العالي، وقد لا يجد الناس أنفسهم فقط في الجانب الخطأ من قرار الذكاء الاصطناعي، بل في كثير من الأحيان، قد لا يعرفون حتى أن هذا هو الحال، ” هو قال.

قالت دورين بوجدان-مارتن، الأمين العام للاتحاد الدولي للاتصالات (ITU)، في حديثها خلال فعالية قبيل القمة العالمية للأمم المتحدة حول الذكاء الاصطناعي من أجل الصالح العام، المقررة في نهاية مايو 2024، إن التركيز الرئيسي وستكون القمة “الانتقال من المبادئ إلى التنفيذ”.

وأضافت أن “المعايير هي حجر الزاوية في الذكاء الاصطناعي”، ولكن يجب إنشاء هذه المعايير بشكل تعاوني من خلال منصات أصحاب المصلحة المتعددين مثل الأمم المتحدة.



Source link

زر الذهاب إلى الأعلى