حكومة المملكة المتحدة تحل بهدوء المجلس الاستشاري لأخلاقيات البيانات
قامت حكومة المملكة المتحدة بحل المجلس الاستشاري المستقل لمركز أخلاقيات البيانات والابتكار (CDEI) دون إعلان عام وسط حملة أوسع لوضع المملكة المتحدة كدولة رائدة عالميًا في حوكمة الذكاء الاصطناعي.
تم إطلاقه في يونيو 2018 لدفع نهج تعاوني متعدد أصحاب المصلحة لحوكمة الذكاء الاصطناعي (AI) والتقنيات الأخرى المستندة إلى البيانات، فإن الأصل يختص بـ CDEI المجلس الاستشاري متعدد التخصصات كان الهدف هو “توقع الثغرات في مشهد الحوكمة، والاتفاق على أفضل الممارسات ووضعها لتوجيه الاستخدامات الأخلاقية والمبتكرة للبيانات، وتقديم المشورة للحكومة بشأن الحاجة إلى سياسات محددة أو إجراءات تنظيمية”.
منذ ذلك الحين، ركز المركز إلى حد كبير على تطوير إرشادات عملية حول كيفية قيام المؤسسات في كل من القطاعين العام والخاص بإدارة تقنيات الذكاء الاصطناعي الخاصة بها بطريقة أخلاقية، والتي تتضمن، على سبيل المثال، نشر تقرير. معيار الشفافية الخوارزمي لجميع هيئات القطاع العام في نوفمبر 2021 و أ مجموعة من تقنيات ضمان الذكاء الاصطناعي في يونيو 2023.
بينما تشير صفحة الويب الخاصة بالمجلس الاستشاري إلى أنه تم إغلاقه رسميًا في 9 سبتمبر 2023، فإن أخبار المستقبل المسجلة – الذي كسر القصة لأول مرة – ذكرت أن الحكومة قامت بتحديث الصفحة بحيث لا يتم إرسال تنبيهات عبر البريد الإلكتروني إلى المشتركين في الموضوع.
تحدث أعضاء المجلس الاستشاري السابقون دون الكشف عن هويتهم مع Recorded Future، كيف تغير موقف الحكومة تجاه الهيئة بمرور الوقت حيث توزعت بين أربعة رؤساء وزراء مختلفين وسبعة وزراء خارجية منذ تعيين أعضاء مجلس الإدارة لأول مرة في نوفمبر 2018.
وقال المسؤول: “في بدايتنا، كان هناك سؤال حول ما إذا كان سيتم إخراجنا من الحكومة ووضعنا على أساس قانوني، أو أن نكون هيئة مستقلة، وكان الافتراض هو أن هذا هو المكان الذي نتجه إليه”. وبدلاً من ذلك، تم وضع CDEI بالكامل تحت إشراف قسم العلوم والابتكار والتكنولوجيا (DSIT) في وقت سابق من عام 2023.
“لم يستثمروا في ما كنا نفعله. كان ذلك جزءًا من مشكلة أوسع نطاقًا حيث كان مكتب الذكاء الاصطناعي يكافح أيضًا لكسب أي اهتمام لدى الحكومة، وكان لديه وثائق تقنية تأخرت وتأجلت وتأخيرت.
وأضاف عضو مجلس الإدارة السابق أيضًا أن هناك أيضًا إرادة سياسية قليلة جدًا لإقناع هيئات القطاع العام بالمشاركة في عمل CDEI، مشيرًا على سبيل المثال إلى أن معيار الشفافية الخوارزمية المنشور في نوفمبر 2021 لم يتم اعتماده على نطاق واسع ولم يتم الترويج له من قبل الحكومة في إنه تقرير الذكاء الاصطناعي لشهر مارس 2023 (التي حددت مقترحاتها لإدارة التكنولوجيا): “لقد فوجئت حقًا وأصابتني بخيبة أمل بسبب ذلك”.
وفي حديثه مع Computer Weekly بشرط عدم الكشف عن هويته، أضاف نفس عضو مجلس الإدارة السابق أنهم أُبلغوا بحل المجالس في أغسطس: “السبب المقدم هو أن DSIT قررت اتباع نهج أكثر مرونة في استشارة المستشارين، والاختيار من بين مجموعة من المستشارين الخارجيين”. الناس، بدلا من وجود مجلس استشاري رسمي.
“كان هناك بالتأكيد خيار أمام مجلس الإدارة للاستمرار. وفي ظل البيئة الحالية، ومع الاهتمام الكبير بتنظيم ومراقبة استخدام الذكاء الاصطناعي والبيانات، كان من الممكن أن تساهم الخبرة الموجودة في المجلس الاستشاري بشكل أكبر.
ومع ذلك، فقد أوضحوا أن موظفي CDEI “عملوا دائمًا بشكل احترافي للغاية مع المجلس الاستشاري، مع الأخذ في الاعتبار نصائحه والتأكد من إبقاء المجلس على علم بالمشاريع الجارية”.
نيل لورانس، أستاذ التعلم الآلي في جامعة كامبريدج والرئيس المؤقت للمجلس الاستشاري، قال أيضًا لـ Recorded Future إنه على الرغم من أن لديه “شكوك قوية” حول حل المجلس الاستشاري، “لم تكن هناك محادثة معي” قبل القرار يجري صنعها.
ويأتي قرار حل المجلس الاستشاري قبل انعقاد قمة الذكاء الاصطناعي العالمية في المملكة المتحدة في نوفمبر، ووسط حملة أوسع من قبل الحكومة لوضع البلاد كدولة رائدة عالميًا في حوكمة الذكاء الاصطناعي.
في أوائل سبتمبر 2023، على سبيل المثال، قبل تغيير صفحة الويب الخاصة بالمجلس الاستشاري بهدوء، أعلنت الحكومة أنها قامت عينت شخصيات من الصناعة والأوساط الأكاديمية والأمن القومي في المجلس الاستشاري لفرقة عمل Frontier AI التي أعيدت تسميتها (في السابق كانت فرقة العمل النموذجية لمؤسسة الذكاء الاصطناعي).
الهدف المعلن لفريق العمل الذي تبلغ قيمته 100 مليون جنيه إسترليني هو تعزيز سلامة الذكاء الاصطناعي، وسيركز بشكل خاص على تقييم الأنظمة “الحدودية” التي تشكل مخاطر كبيرة على السلامة العامة والأمن العالمي.
وتعليقًا على كيفية تأثير حل المجلس الاستشاري لـ CDEI على إدارة الذكاء الاصطناعي في المملكة المتحدة في المستقبل، قال أعضاء المجلس الاستشاري السابق: “يبدو أن المخاطر الوجودية هي محور التركيز الحالي، على الأقل في مكتب رئيس الوزراء. يمكنك القول أنه من السهل التركيز على المخاطر “الوجودية” المستقبلية لأنه يتجنب الاضطرار إلى النظر في تفاصيل ما يحدث الآن واتخاذ الإجراءات اللازمة.
“من الصعب تحديد ما يجب فعله بشأن الاستخدامات الحالية للذكاء الاصطناعي لأن ذلك يتضمن التحقيق في تفاصيل التكنولوجيا وكيفية تكاملها مع عملية صنع القرار البشري. كما يتضمن أيضًا التفكير في سياسات القطاع العام وكيفية استخدام الذكاء الاصطناعي لتنفيذها. هذا يمكن أن يثير قضايا صعبة.
“آمل أن يستمر CDEI وأن تصبح الخبرة التي اكتسبها في مقدمة ومركز الجهود المستمرة لتحديد الإمكانات والمخاطر الحقيقية للذكاء الاصطناعي، وما ينبغي أن تكون عليه استجابات الحوكمة المناسبة.”
ردًا على طلب Computer Weekly للتعليق، قال متحدث باسم DSIT: “تم تعيين المجلس الاستشاري لـ CDEI على أساس مدة محددة ومع تطور عمله لمواكبة التطورات السريعة في البيانات والذكاء الاصطناعي، فإننا نستفيد الآن من مجموعة أوسع من الخبرة من جميع أنحاء القسم خارج هيكل مجلس الإدارة الرسمي.
“سيضمن ذلك أن مجموعة متنوعة من الآراء والرؤى، بما في ذلك أعضاء مجلس الإدارة السابقين، يمكنها الاستمرار في إعلام عملها ودعم أولويات الحكومة في مجال الذكاء الاصطناعي والابتكار.”
في 26 سبتمبر/أيلول، نشر عدد من أعضاء المجلس الاستشاري السابقين – بما في ذلك لورانس، ومارتن هوسكين، وماريون أوزوالد، وميمي زو – مقالاً مدونة مع تأملات في الوقت الذي قضوه في CDEI.
قال زو: “خلال فترة وجودي في المجلس الاستشاري، أطلقت CDEI مشاريع رائدة ومتطورة عالميًا بما في ذلك AI Assurance، وتحديات جوائز PETs في المملكة المتحدة والولايات المتحدة، ومعيار تسجيل الشفافية الخوارزمية، وتحدي ابتكار العدالة، من بين العديد من المشاريع الأخرى”.
“للمضي قدمًا، ليس لدي أدنى شك في أن CDEI ستستمر في كونها جهة فاعلة رائدة في تقديم الأولويات الإستراتيجية للمملكة المتحدة في الاستخدام الجدير بالثقة للبيانات والذكاء الاصطناعي والابتكار المسؤول. وإنني أتطلع إلى دعم هذه المهمة الهامة لسنوات عديدة قادمة.
وقالت CDEI نفسها: “لقد لعب المجلس الاستشاري لـ CDEI دورًا مهمًا في مساعدتنا على تقديم هذه الأجندة الحاسمة. لقد كانت خبرتهم ورؤيتهم لا تقدر بثمن في المساعدة على تحديد الاتجاه وتنفيذ برامج عملنا المتعلقة بالوصول المسؤول إلى البيانات وضمان الذكاء الاصطناعي والشفافية الخوارزمية.
“بما أن فترة مجلس الإدارة قد انتهت الآن، نود أن ننتهز هذه الفرصة لنشكر مجلس الإدارة على دعم بعض مشاريعنا الرئيسية خلال فترة وجوده.”
مما يعكس الاهتمام الواسع النطاق بتنظيم الذكاء الاصطناعي وحوكمته، فقد تم إطلاق عدد من التحقيقات البرلمانية في العام الماضي للتحقيق في مختلف جوانب التكنولوجيا.
وهذا يشمل التحقيق في التحقيق في حوكمة الذكاء الاصطناعي تم إطلاقه في أكتوبر 2022؛ التحقيق في نظام الأسلحة المستقلة تم إطلاقه في يناير 2023؛ آخر في الذكاء الاصطناعي التوليدي تم إطلاقه في يوليو 2023؛ وآخر في نماذج لغوية كبيرة تم إطلاقه في سبتمبر 2023.
تحقيق اللوردات في استخدام الذكاء الاصطناعي والتقنيات الخوارزمية من قبل شرطة المملكة المتحدة انتهى في مارس 2022، تم نشر التكنولوجيا من قبل هيئات إنفاذ القانون دون إجراء فحص شامل لفعاليتها أو نتائجها، وأن المسؤولين عن عمليات النشر هذه هم في الأساس “يقومون باختلاق الأمر أثناء المضي قدمًا”.