يحذر اللورد هولمز من الحاجة “الملحة” بشكل متزايد إلى تنظيم الذكاء الاصطناعي

يجب على حكومة المملكة المتحدة التشريعات “بشكل عاجل” حول الذكاء الاصطناعي (AI) بالنظر إلى الآثار السلبية بوضوح التي تتمتع بها بالفعل على حياة العديد من الناس اليومية ، يحذر اللورد هولمز المحافظ في تقرير.
في نوفمبر 2023 ، قدم هولمز مشروع قانون أعضاء منظمة العفو الدولية للبرلمان بدلاً من أي مقترحات رسمية من الحكومة في ذلك الوقتالتي ركزت على وضع تدابير لـ “التنظيم التكيفي” ، والتصميم الشامل ، والمعايير الأخلاقية ، والشفافية ، والمساءلة ، والتعليم ، والتعاون الدولي.
وقال هولمز في التقرير إنه على الرغم من أن مشروع قانونه كان يهدف إلى إشراك الجمهور وزملائه البرلمانيين بشكل استباقي مع الأفكار والخطوات التشريعية اللازمة لضمان تشكيل الذكاء الاصطناع السماح مجموعة من الأضرار بالازدهار بلا هوادة.
“سواء كان التمييز والتحيز في خوارزميات الذكاء الاصطناعى ، أو التضليل من الصور الاصطناعية ، أو الاحتيال باستخدام تقنية محاكاة الصوت ، أو سرقة حقوق الطبع والنشر أو استجابات chatbot غير الأخلاقية ، فإننا نواجه بالفعل مجموعة من المشكلات من الذكاء الاصطناعي الحالي” ، قال.
تحدث خلال مائدة مستديرة عن إطلاق التقرير ، أضاف هولمز أثناء كان من الضروري تنظيم الذكاء الاصطناعى عندما اقترح في البداية مشروع قانون أعضائه الخاص مرة أخرى في عام 2023 ، “أعتقد أنه لا يزال أكثر إلحاحًا اليوم”.
تسليط الضوء على ثمانية أمثلة نموذجية للأشخاص الذين يعيشون “في النهاية الحادة” من الذكاء الاصطناعى غير المنظم في المملكة المتحدة ، تقرير هولمز – نُشر في 26 فبراير 2025 – يوضح كيف أن التكنولوجيا تؤثر سلبًا على حياة الناس بسبب عدم وجود حماية فعالة في مكانها.
لكل من الأمثلة ، يضع التقرير المشكلة وكيف يمكن لمشروع قانون الذكاء الاصطناعي المقترح معالجة المشكلات المطروحة.
في حالة مطالبات المنافع ، على سبيل المثال ، أشار إلى كيف أن وزارة العمل والمعاشات التقاعدية “فشلت باستمرار” في إبلاغ الجمهور الخوارزميات التي تنشرها لاتخاذ قرارات بشأن حياة الناس، وأعلم أن الأنظمة الآلية أدت بشكل خاطئ إلى الآلاف من المعلقات غير المحددة أو تحقيقات الاحتيال.
للتخفيف من ذلك ، قال هولمز إن البند الثاني من فاتورته سيحدد مبادئ السابقة ورقة منظمة العفو الدولية للحكومة المحافظة على أساس قانوني ، بما في ذلك التدابير حول الشفافية ، والتفسير ، والمساءلة ، والمسابقة ، والتعويض ، فضلاً عن واجب عدم التمييز.
كما أبرز قدم مشروع قانون منفصل أعضاء منظمة العفو الدولية في سبتمبر 2024 من قبل الأقران الديمقراطي الليبرالي اللورد كليمنت جونز، والتي تهدف بشكل أكثر ضيقًا إلى إنشاء إطار إلزامي واضح للاستخدام المسؤول لأنظمة صنع القرار الخوارزمية والآلية في القطاع العام “.
بالنسبة إلى الباحث عن عمل ، قال هولمز إنه أثناء نشر الذكاء الاصطناعى بشكل متزايد في عمليات التوظيف ، لا توجد قوانين محددة تنظم حاليًا استخدام التكنولوجيا في قرارات التوظيف.
وأضاف أن هذا قد أدى إلى إعفاء الأشخاص بشكل غير عادل من الأدوار بسبب تدريب البيانات التي تتأثر بشدة بسنوات من أنماط التوظيف التي يسيطر عليها الذكور ، ويخلق المزيد من المشكلات حول جمع البيانات الشخصية لإبلاغ الأنظمة والافتقار العام للشفافية حول النماذج.
مرة أخرى تسليط الضوء على الفقرة الثانية من فاتورته ، قال هولمز إن البنود الإضافية التي تنشئ “سلطة الذكاء الاصطناعى أفقيًا” – والتي ستنتهي تحليل الفجوة للمسؤولية التنظيمية الحالية وضمان المحاذاة عبر مختلف المنظمين القطاعين – و “الضباط المسؤولون من الذكاء الاصطناعي” من شأنه أن يعزز الحماية للباحثين عن عمل الخاضعين لمنظمة العفو الدولية.
تشمل الأمثلة النموذجية الأخرى التي أبرزتها هولمز المعلم والمراهق والخداع ، الإبداع، الناخب ، ومريض الزرع – الذين قال جميعًا سيستفيد من عدد من البنود الأخرى في مشروع قانون أعضائه الخاص.
وتشمل هذه الجمل على “مشاركة عامة ذات معنى وطويلة الأجل” حول فرص ومخاطر الذكاء الاصطناعي ، وكذلك الشفافية حول استخدام بيانات الطرف الثالث و الملكية الفكرية (IP) في مجموعات التدريب، والتي “يجب الحصول عليها بموافقة مستنيرة”.
المشاركة والثقة
في حديثه خلال التقرير ، أبرز المشاركون – بمن فيهم ممثلون من مجموعات المجتمع المدني والنقابات والهيئات البحثية ، بالإضافة إلى أمراء آخرين – عددًا من الاعتبارات الرئيسية لتنظيم الذكاء الاصطناعي.
وهذا يشمل الاستفادة من صلاحيات المشتريات للحكومات بطرق تعكس القيم التي تحاول تحقيقها ، والتي جادلوا يمكن أن تعمل كشكل من أشكال “القوة الناعمة” على شركات التكنولوجيا ، وضمان أن الناس يشعرون بأن لديهم رأي في تطوير ونشر التكنولوجيا في جميع أنحاء القطاع العام و أماكن عملهم.
حذر المشاركون كذلك من أنه إذا تم اعتماد أنظمة الذكاء الاصطناعى في جميع أنحاء القطاع العام دون تنظيم فعال معمول تآكل ثقة الناس في الدولة.
وقالت هانا بيري ، رئيسة البحث عن السياسة الرقمية في عروض الأبحاث ، إن الذكاء الاصطناعي يمكن أن تسهم في “القدر الإضافي للثقة التي نراها في المجتمع في الوقت الحالي” بسبب ميلها إلى العمل كـ “قوة مركزية” هذا يخاطر “بإزالة الجمهور وعدم إهماله” من صنع القرار.
وأضافت أنه كان من “الحاسم” أن يكون لديك شكل من أشكال المشاركة العامة ، وأن إنشاء “منصة تداولية” حيث يمكن للأشخاص العاديين التأثير على الحقوق الرقمية والمبادئ في أي لائحة منظمة العفو الدولية في المملكة المتحدة.
التعليق على الحاجة النهج التنظيمية التشاركية، قال ماري تاورز ، مسؤولة عن حقوق التوظيف في مؤتمر اتحاد التداول (TUC) المتخصص في استخدام الذكاء الاصطناعى والتكنولوجيا في العمل ، إن الذكاء الاصطناعي لديه بالفعل عواقب مقلقة للعمال عبر مجموعة واسعة من القطاعات ، بما في ذلك تكثيف العمل، انخفاض الوكالة والحكم الذاتي في العمل بسبب ممارسات إدارة الخوارزميةوتأثيرات الصحة العقلية السلبية و غير عادل أو التمييز النتائج.
وأضاف Towers أن الإبلاغ عن استطلاع TUC حول مواقف العمال تجاه الذكاء الاصطناعي ، حيث يعتقد أن بعض العمال 70 ٪ من الصواب أن هناك حق قانوني في الاستشارة لأصحاب العمل للتشاور مع العمال قبل تنفيذ التكنولوجيا الجديدة في العمل “.
وأضافت: “من الواضح أننا نعتقد أنه ينبغي أن يكون هناك تشريع. يجب أن يكون سياق خاص. لكنني أريد أيضًا تسليط الضوء على أن التنظيم لا يتعلق فقط بالتشريعات. التشاور ، المشاركة ، المفاوضة الجماعية ، نهج الشراكات الاجتماعية – هذه كلها بالتأكيد أشكال من التنظيم. “
وأضاف أندرو سترايت ، المدير المساعد في معهد آدا لوفلاس (ALI) ، أنه على الرغم من أن الدراسات الاستقصائية تجد أن معظم الأشخاص لا يرتبون من الذكاء الاصطناعي كمسألة ذات أولوية وحدها ، فإن هذا يتغير عندما يتم سؤالهم عن استخدامه في سياقات القطاع العام الحساسة ، مثل الصحة والمهمة الرعاية الاجتماعية أو قرارات تخصيص الفوائد.
“فجأة يهتم الناس حقًا” ، قال. “إنهم قلقون للغاية ، وتوترون للغاية ، وغير مرتاحين للغاية لسرعة التبني ، وعدم وجود الدرابزين ، والشعور بأن الأمور تتحرك بسرعة كبيرة وبطريقة يتم فيها إخراج الاستقلالية البشرية ، واتخاذ القرارات الخبراء بعيدًا عن الطريق للسرعة والكفاءة.
“هذا يطرح السؤال ، ما الذي يريده الناس؟ يريدون التنظيم. إنهم يريدون أن تشعر القواعد بالراحة حيال ذلك. إنهم يريدون أن يشعروا أنهم يفعلون ذلك عندما يذهبون إلى الطائرة ، حيث كان هناك اختبارات صارمة لسلامة ومعايير ومعايير. “
انقسام كاذب
أبرز المضيق أيضًا أنه في تجربة علي في الانخراط مع الشركات الخاصة ، فإن “أعظم حاجز منفرد” لزيادة اعتماد الذكاء الاصطناعي هو عدم الموثوقية في التكنولوجيا – وهو أمر يمنحهم المعايير والتنظيم أيضًا مزيدًا من اليقين.
كما جادل المشاركون المائدة المستديرة بشدة ضد خلق ثنائي بين الابتكار والنمو من ناحية ، والسلامة والتنظيم من جهة أخرى.
قال كيث روسر ، مدير في REED Desconding وعضو في المجلس الاستشاري لمعهد التوظيف الأفضل ، على سبيل المثال ، أنه نظرًا لأن قطاع التوظيف غارق بالفعل مع الذكاء الاصطناعي – مع كل من الباحثين عن عمل وأصحاب العمل يستخدمون التقنية لصنعها وتبحيفها من خلال تطبيقات الوظائف على التوالي – “لدينا كل المخاطر ، ولكن فقط بعض الفرص”.
وأضاف أنه بدون تنظيم ، سيستمر هذا الموقف: “تريد الشركات أن تكون مدعومة من قبل الحكومات ، فهم يريدون أن يعرفوا مكان وجود درابزين … لكلا الجانبين من قضية الاستخدام هذه – الباحث عن العمل وشركة التوظيف – لا يوجد أي لائحة يعني وجود عدم اليقين الضخم “
روجر تايلور ، الرئيس الأول لمركز المملكة المتحدة لأخلاقيات البيانات والابتكار، أضاف أن استخدام الذكاء الاصطناعى في الحكومة هو على الأرجح المجال الأكثر أهمية حيث لا يوجد أي تنظيم: “التوتر في الوقت الحالي هو هذا الخوف من أن النمو والتنظيم يحاربان بعضهما البعض ، والنمو هو أهم شيء ، يليه صنع الخدمات العامة أكثر كفاءة وأكثر فاعلية قبل أن تأتي الانتخابات المقبلة.
“من المفهوم تمامًا لماذا ستكون هذه الأولويات. والسؤال هو ، هل صحيح حقًا أن التدابير التنظيمية هي نتائج عكسية؟ … نحن بحاجة إلى تمرير قانون يضع نوعًا من الآلية التنظيمية القانونية ، ليس فقط لأننا نريد التأكيد ونحن قلقون بشأن الأشياء التي تحدث ، ولكن لأنها فرصة هائلة لهذا البلد يمكن أن نتقدم في هذا المجال “.