يقول دونيلان: لا يوجد تشريع في المملكة المتحدة بشأن الذكاء الاصطناعي إلا بعد أن يحين التوقيت المناسب
تقول الوزيرة الرقمية ميشيل دونيلان إن حكومة المملكة المتحدة لن تصدر تشريعات بشأن الذكاء الاصطناعي (AI) حتى يحين التوقيت المناسب، وتركز في هذه الأثناء على تحسين سلامة التكنولوجيا وبناء القدرات التنظيمية لدعم إطارها “المؤيد للابتكار” المقترح.
في 13 ديسمبر/كانون الأول، مثل دونيلان أمام لجنة العلوم والابتكار والتكنولوجيا للإجابة على أسئلة النواب حول النهج الحالي الذي تتبعه المملكة المتحدة لتعزيز وتنظيم تطوير الذكاء الاصطناعي.
وكانت اللجنة قد نشرت في وقت سابق تقرير مؤقت عن ترتيبات حوكمة الذكاء الاصطناعي النامية في المملكة المتحدة في نهاية أغسطس، والذي حذر من وجود خطر أن “تتخلف” المملكة المتحدة عن الركب بسبب التشريعات التي يتم تطويرها في أماكن أخرى، وتحديداً قانون الذكاء الاصطناعي للاتحاد الأوروبي.
وحدد التقرير 12 مجال تحدي لتشريعات الذكاء الاصطناعي والتي تتعلق بمختلف المنافسة والمساءلة والقضايا الاجتماعية المرتبطة بتشغيل الذكاء الاصطناعي، بما في ذلك التحيز والخصوصية والتضليل والوصول إلى البيانات والوصول إلى القدرة الحاسوبية والمصدر المفتوح من بين أمور أخرى.
في انتظار التشريع
وفي تعليقه على عدم وجود تشريع للذكاء الاصطناعي في خطاب الملك (الذي يحدد الجدول الزمني التشريعي للدورة البرلمانية المقبلة حتى عام 2025)، قال دونيلان: “ما نقوم به هو الاستثمار أكثر من أي دولة أخرى في سلامة الذكاء الاصطناعي”.
مشيراً إلى تصريحات الحكومة الأخيرة عقد 28 دولة في قمة سلامة الذكاء الاصطناعي في بلتشلي باركوالاتفاقيات التي تم التوصل إليها خلال هذا الحدث حول الحاجة إلى اختبار وتقييم ما قبل النشر، و ال ورقة عمل الذكاء الاصطناعي وأضاف دونيلان الذي تم إصداره في شهر مارس: “لقد حرصنا على ضمان أننا ضاعفنا جهودنا للحصول على معالجة أفضل للمخاطر على وجه التحديد.
“أعتقد أنه من المهم أن نتذكر أن هذه تقنية ناشئة تظهر بشكل أسرع من أي تقنية رأيناها من قبل. لا يوجد بلد لديه القدرة الكاملة على تحديد ماهية المخاطر بالضبط.”
تحت ضغط من رئيس اللجنة جريج كلارك بشأن ما إذا كانت الحكومة ستتابع التزامها بوضع واجب قانوني على المنظمين لإيلاء الاعتبار الواجب للمبادئ الخمسة الواردة في ورقة عمل الذكاء الاصطناعي (بما في ذلك السلامة والأمن؛ والشفافية وقابلية التفسير؛ والعدالة؛ والمساءلة والحوكمة؛ و وقال دونيلان إن التوقيت أساسي في أي تشريع، وأن هناك خطر خنق الابتكار من خلال التصرف بسرعة كبيرة دون فهم مناسب للتكنولوجيا.
وقالت: “لكي نقوم بالتشريع بشكل صحيح، نحتاج إلى أن نكون قادرين على فهم القدرات الكاملة لهذه التكنولوجيا بشكل أفضل”، مضيفة أنه في حين أنه “سيتعين على كل دولة في نهاية المطاف أن تضع تشريعات” بشأن الذكاء الاصطناعي، فقد قررت الحكومة أنه من الأهم أن تكون قادرة على ذلك. تصرف بسرعة واحصل على “إجراء ملموس الآن”.
“لا نريد التسرع في التشريع وفهم هذا الأمر بشكل خاطئ. نحن لا نريد خنق الابتكار… نريد التأكد من أن أدواتنا يمكن أن تمكننا من التعامل فعليًا مع المشكلة التي نواجهها، وهو ما سنكون قادرين على فعله بشكل أساسي من خلال تقييم النماذج.
تسليط الضوء على معهد سلامة الذكاء الاصطناعي أطلقه رئيس الوزراء ريشي سوناك في نهاية شهر أكتوبر (سابقًا فرقة عمل Frontier AI وقبل ذلك فرقة عمل مؤسسة النموذج)، قال دونيلان إن الحكومة كانت مشغولة بجلب خبراء من الصناعة والأوساط الأكاديمية والمجتمع المدني وهي هيئة بحث وتقييم جديدة حتى تتمكن من التعامل بشكل كامل مع مجموعة المخاطر التي تمثلها التكنولوجيا.
عندما سأل كلارك كيف أن الواجب القانوني الخاص بإيلاء الاعتبار الواجب للمنظمين من شأنه أن يخنق الابتكار، لم يرد دونيلان بشكل مباشر، لكنه قال إن المنظمين لديهم بالفعل تشريعات يجب الالتزام بها وأن الهدف من الورقة البيضاء هو توفير الاتساق والتماسك لأولئك الذين يعملون في مجال الذكاء الاصطناعي. فضاء.
“ما وضعناه في مشروع القانون هذا لم يتم تحديده حتى الآن ولم يتم تحديد التوقيت، لأننا في هذا البلد نتخذ نهجا متناسبا ورشيقا حقا، نهجا سوف يستند إلى الأدلة، وجمع المعلومات و قالت: “يجب أن نفهم المخاطر بشكل صحيح قبل أن نتجه إلى التشريع”.
“لقد رأينا التأثير الذي يمكن أن يحدثه ذلك، انظر إلى قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي والتداعيات واستجابة الصناعة لذلك… الأمر ليس بهذه البساطة مثل “التشريع هو الأداة الوحيدة في صندوق الأدوات” – إنه بالتأكيد كذلك” ر، وهناك سلبيات مع التشريع، [like] حقيقة أن الأمر يستغرق وقتًا طويلاً.
وأضافت أن الاتحاد الأوروبي والولايات المتحدة “سيتطلعان إلينا لسد هذه الفجوة في الوقت المناسب” بسبب عمل المملكة المتحدة الجاري بالفعل بشأن سلامة الذكاء الاصطناعي.
في حين قال دونيلان إن المعهد، بالإضافة إلى أبحاثه المختلفة المتعلقة بالسلامة، في وضع يسمح له بالفعل بإجراء تقييمات لنماذج الذكاء الاصطناعي، أخبر مسؤولو وايتهول اللجنة سابقًا في منتصف نوفمبر، لم تتم مراجعة أي من أعمال المعهد حتى الآن.
ومع ذلك، قال عمران ميان، المدير العام للتكنولوجيات الرقمية والاتصالات في وزارة العلوم والابتكار والتكنولوجيا (DSIT)، إن المعهد كان مفيدًا بالفعل لواضعي السياسات في دفع المحادثات إلى الأمام حول سلامة الذكاء الاصطناعي، فضلاً عن بدء التعاون الدولي بشأن هذه القضية. .
وقال: “من الواضح أننا بحاجة إلى مواصلة بناء العلم حول الشكل الذي يبدو عليه التقييم الجيد”.
الفجوات التنظيمية؟
يتمثل أحد العناصر الرئيسية في مقترحات الذكاء الاصطناعي الحكومية، كما هو موضح في الورقة البيضاء، في الاعتماد على الهيئات التنظيمية الحالية – بما في ذلك مكتب مفوض المعلومات (ICO)، والسلطة التنفيذية للصحة والسلامة، ولجنة المساواة وحقوق الإنسان (EHRC) والمنافسة والأسواق. السلطة (CMA) – لإنشاء قواعد مخصصة ومحددة السياق تتناسب مع طرق استخدام الذكاء الاصطناعي في القطاعات التي تفحصها.
وأوصت اللجنة في تقريرها المرحلي بإجراء “تحليل الفجوة” في قدراتهم وصلاحياتهم قبل القيام بأي محاولات تشريعية.
دافع دونيلان عن هذا النهج أمام اللجنة، قائلاً إن وجود منظم مستقل للذكاء الاصطناعي من شأنه أن يخلق الكثير من التداخل والازدواجية في العمل، وبالتالي من الأفضل استخدام “أسطول الهيئات التنظيمية الحالي” في المملكة المتحدة لأنهم في وضع أفضل لفهم السياقات المختلفة. حول كيفية استخدام الذكاء الاصطناعي في قطاعاتهم.
ومع ذلك، أضافت أن الحكومة لم تكن تجري تحليلًا رسميًا للفجوات، وبدلاً من ذلك تتخذ نهجًا متكررًا لتحديد المشكلات: “هذه عملية مستمرة، بالتأكيد، لأن الذكاء الاصطناعي هو تكنولوجيا ناشئة. لذا، إذا أردنا إجراء تحليل واحد للفجوات الآن، فقد يكون الأمر مختلفًا تمامًا في غضون بضعة أشهر. نحن بحاجة إلى إجراء تحليل الفجوات هذا باستمرار.
أخبرت دونيلان أعضاء البرلمان أن إدارتها تعمل بالفعل على إنشاء “وظيفة تنظيمية مركزية” وفقًا للورقة البيضاء، والتي ستعمل جزئيًا كهيئة لمسح الأفق وجزئيًا كوظيفة دعم للمنظمين الآخرين.
وأضافت أن الحكومة تدعم أيضًا منتدى التعاون في التنظيم الرقمي (DRCF)، وهو تحالف من أربعة هيئات تنظيمية لها صلاحيات في جوانب مختلفة من الحياة الرقمية، بتمويل إضافي قدره مليوني جنيه إسترليني.
وقالت: “إذا وجدنا أن هناك فجوات مع الجهات التنظيمية لدينا، فسنكون منفتحين للتفكير في منتديات أو وظائف دعم أخرى حتى نتمكن من مساعدتهم”. “ما نريد القيام به هو التأكد من أن لدينا التنظيم والآليات المناسبة لتكون في مقدمة هذه الأجندة.”
في يوليو 2023، تحليل الفجوة التنظيمية الذي أجراه معهد Ada Lovelace وجدت أنه نظرًا لأن “مساحات كبيرة” من اقتصاد المملكة المتحدة إما غير منظمة أو منظمة جزئيًا فقط، فليس من الواضح من سيكون مسؤولاً عن التدقيق في عمليات نشر الذكاء الاصطناعي في مجموعة من السياقات المختلفة.
ويشمل ذلك ممارسات التوظيف والتوظيف، التي لا تخضع للمراقبة الشاملة؛ والتعليم والشرطة، اللذان تتم مراقبتهما وإنفاذهما من قبل شبكة غير متكافئة من الهيئات التنظيمية؛ والأنشطة التي تقوم بها إدارات الحكومة المركزية التي لا تخضع للتنظيم المباشر.
وقال المعهد: “في هذه السياقات، لن يكون هناك أي جهة تنظيمية قائمة خاصة بمجال معين تتمتع بإشراف عام واضح لضمان دمج مبادئ الذكاء الاصطناعي الجديدة في ممارسات المؤسسات التي تنشر أو تستخدم أنظمة الذكاء الاصطناعي”.
وأضافت أن التحليل القانوني المستقل الذي أجرته وكالة حقوق البيانات AWO للمعهد وجد أنه في هذه السياقات، فإن الحماية التي توفرها حاليًا التشريعات الشاملة مثل اللائحة العامة لحماية البيانات في المملكة المتحدة وقانون المساواة غالبًا ما تفشل في حماية الأشخاص من الأذى أو منحهم حقوقًا. طريق فعال للإصلاح.
وقالت: “إن هذه الفجوة في التنفيذ تجعل الأفراد يعتمدون في كثير من الأحيان على إجراءات المحكمة لإنفاذ حقوقهم، وهو أمر مكلف ويستغرق وقتا طويلا، وغالبا ما لا يكون خيارا للفئات الأكثر ضعفا”.