يقول النواب إن حكومة المملكة المتحدة المقبلة يجب أن تكون مستعدة لسن تشريعات بشأن الذكاء الاصطناعي
قالت لجنة العلوم والابتكار والتكنولوجيا بمجلس النواب (SITC) إن حكومة المملكة المتحدة المقبلة يجب أن تكون مستعدة لسن تشريعات بشأن الذكاء الاصطناعي (AI) إذا وجدت ثغرات في صلاحيات الهيئات التنظيمية لحماية المصلحة العامة من التطورات التكنولوجية سريعة الحركة.
بعد تحقيقها في إدارة المملكة المتحدة للذكاء الاصطناعي – والذي كان تم إطلاقه في أكتوبر 2022 لدراسة كيفية ضمان المملكة المتحدة استخدام التكنولوجيا بطريقة أخلاقية ومسؤولة – قال مجلس العموم SITC إن الحكومة القادمة يجب أن تكون مستعدة لسن تشريعات بشأن الذكاء الاصطناعي إذا ثبت أن نهج عدم التدخل الحالي غير كاف في معالجة الوضع الحالي الأضرار المستقبلية المرتبطة بالتكنولوجيا.
وأضافت اللجنة أنه في حين أنها تتفق إلى حد كبير مع النهج الحالي المتمثل في استخدام الهيئات التنظيمية الحالية لإدارة انتشار الذكاء الاصطناعي في قطاعاتها، فإن النهاية الوشيكة للدورة البرلمانية الحالية تعني أنه لا يوجد وقت لتقديم تحديثات لاختصاصات الهيئات التنظيمية أو صلاحياتها إذا كانت هناك ثغرات. يتم تحديد.
ونظرًا للفوارق المالية الهائلة بين الهيئات التنظيمية وكبار مطوري الذكاء الاصطناعي الذين “يمكنهم السيطرة على موارد هائلة”، قالت لجنة التجارة الدولية إن الحكومة القادمة ستحتاج أيضًا إلى تقديم المزيد من الدعم المادي للجهات التنظيمية في المملكة المتحدة للمساعدة في مساءلة الشركات.
“من الصواب العمل من خلال الهيئات التنظيمية الحالية، ولكن يجب على الحكومة المقبلة أن تكون مستعدة للتشريع بسرعة إذا تبين أن أيًا من الهيئات التنظيمية العديدة تفتقر إلى السلطات القانونية اللازمة لتكون فعالة. قال جريج كلارك، رئيس SITC: “نحن قلقون من أن الهيئات التنظيمية في المملكة المتحدة تعاني من نقص الموارد مقارنة بالتمويل الذي يمكن للمطورين الرئيسيين الحصول عليه”.
يثير SITC أيضًا مخاوف بشأن التقارير الواردة من بوليتيكو أن معهد سلامة الذكاء الاصطناعي (AISI) في المملكة المتحدة لم يتمكن من الوصول إلى بعض نماذج مطوري الذكاء الاصطناعي لاختبار السلامة قبل النشر، كما تم الاتفاق عليه طوعًا في قمة سلامة الذكاء الاصطناعي التي عقدتها حكومة المملكة المتحدة في بليتشلي بارك في نوفمبر 2023.
سد الفجوات
وفي تقرير مؤقت من أغسطس 2023، حذرت SITC سابقًا أن المملكة المتحدة تخاطر بالتخلف عن الركب بسبب التشريعات الأخرى المتعلقة بالذكاء الاصطناعي التي يتم تطويرها في ولايات قضائية أخرى مثل الاتحاد الأوروبي، ودفعت الحكومة إلى تأكيد ما إذا كانت ترى أنه من المناسب إصدار تشريع رسمي ومتى.
ومع ذلك، في جلسات المتابعة، استمعت لجنة التجارة الدولية (SITC) إلى ذلك كبار المسؤولين في وايتهول و السكرتيرة الرقمية ميشيل دونيلان وأن الحكومة لم توافق على الحاجة إلى تشريعات خاصة بالذكاء الاصطناعي، وأنه من الأهم تحسين سلامة التكنولوجيا وبناء القدرات التنظيمية لدعم إطار العمل “المؤيد للابتكار” الموضح في ورقة عمل الذكاء الاصطناعي الصادرة في مارس 2023.
وبموجب هذا النهج، ستعتمد حكومة المملكة المتحدة على الهيئات التنظيمية القطاعية القائمة لإنشاء قواعد مخصصة ومحددة السياق تتناسب مع الطرق التي يتم بها استخدام الذكاء الاصطناعي في القطاعات التي تفحصها، بما يتوافق مع القوانين الموجودة بالفعل.
وفي حين أكدت الحكومة إلى حد كبير التزامها بتأجيل قوانين الذكاء الاصطناعي حتى يحين الوقت المناسب، قيل في فبراير 2024 أنها ستنظر في المتطلبات القانونية الملزمة للشركات التي تطور أقوى أنظمة الذكاء الاصطناعي، مع الإشارة إلى أن أي تدابير طوعية لشركات الذكاء الاصطناعي من المرجح أن تكون “غير متناسبة مع المخاطر” التي تمثلها القدرات الأكثر تقدمًا.
“يجب على الحكومة في ردها على هذا التقرير تقديم مزيد من الدراسة للمعايير التي سيتم على أساسها اتخاذ قرار التشريع، بما في ذلك مؤشرات الأداء النموذجية، ومتطلبات التدريب مثل القدرة الحاسوبية أو العوامل الأخرى التي سيتم النظر فيها”، قالت لجنة التجارة الدولية (SITC) في توصياتها.
وأضاف أن الحكومة المقبلة يجب أن تلتزم بتقديم مراجعات ربع سنوية لنهجها الحالي لتنظيم الذكاء الاصطناعي أمام البرلمان، والتي يجب أن تتضمن ملخصًا للتطورات التكنولوجية المتعلقة بمعاييرها المعلنة لإثارة قرار التشريع، بالإضافة إلى تقييم ما إذا كانت هذه المعايير أم لا. تم لقاؤه.
ونظرًا للفوارق بين الهيئات التنظيمية وشركات الذكاء الاصطناعي، أضافت لجنة التجارة الدولية (SITC) ذلك أيضًا مستويات التمويل الحالية “من الواضح أنها غير كافية لمواجهة التحدي”، وأنه يجب على الحكومة المقبلة “الإعلان عن المزيد من الدعم المالي، المتفق عليه بالتشاور مع الهيئات التنظيمية، والذي يتناسب مع حجم المهمة”.
في حين رحبت لجنة التجارة الدولية بالتزام الحكومة بإجراء “تحليل الفجوات التنظيمية” لمعرفة ما إذا كانت هناك حاجة إلى مزيد من الصلاحيات للجهات التنظيمية، إلا أنها قالت إن نهاية الدورة البرلمانية الحالية القادمة تعني أنه لم يعد هناك وقت متبقي لتحديث اختصاصاتهم أو صلاحياتهم التنظيمية إذا كانت هناك ثغرات. يتم تحديد.
في يوليو 2023، تحليل الفجوة التنظيمية الذي أجراه معهد Ada Lovelace وجدت أنه نظرًا لأن “مساحات كبيرة” من اقتصاد المملكة المتحدة إما غير منظمة أو منظمة جزئيًا فقط، فليس من الواضح حاليًا من سيكون مسؤولاً عن التدقيق في عمليات نشر الذكاء الاصطناعي في مجموعة من السياقات المختلفة.
ويشمل ذلك ممارسات التوظيف والتوظيف، التي لا تخضع للمراقبة الشاملة؛ والتعليم والشرطة، اللذان تتم مراقبتهما وإنفاذهما من قبل شبكة غير متكافئة من الهيئات التنظيمية؛ والأنشطة التي تقوم بها إدارات الحكومة المركزية التي لا تخضع للتنظيم المباشر.
وقال المعهد: “في هذه السياقات، لن يكون هناك أي جهة تنظيمية قائمة خاصة بمجال معين تتمتع بإشراف عام واضح لضمان دمج مبادئ الذكاء الاصطناعي الجديدة في ممارسات المؤسسات التي تنشر أو تستخدم أنظمة الذكاء الاصطناعي”.
وأضافت أن التحليل القانوني المستقل الذي أجرته وكالة حقوق البيانات AWO للمعهد وجد أنه في هذه السياقات، فإن الحماية التي توفرها حاليًا التشريعات الشاملة مثل اللائحة العامة لحماية البيانات في المملكة المتحدة وقانون المساواة غالبًا ما تفشل في حماية الأشخاص من الأذى أو منحهم حقوقًا. طريق فعال للإصلاح.
اختبار ما قبل النشر
فيما يتعلق باختبار ما قبل النشر، قالت SITC إنها “تشعر بالقلق” من الاقتراحات التي تفيد بأن AISI لم تتمكن من الوصول إلى النماذج التي لم يتم إصدارها لإجراء اختبارات السلامة قبل طرحها، وهو ما تم الاتفاق عليه مع الشركات على أساس طوعي خلال اختبار سلامة الذكاء الاصطناعي. القمة في نوفمبر 2023.
وأضافت: “إذا كان هذا صحيحا، فإن هذا من شأنه أن يقوض تنفيذ مهمة المعهد وقدرته على زيادة ثقة الجمهور في التكنولوجيا”. “في ردها على هذا التقرير، يجب على الحكومة أن تؤكد النماذج التي أجرى معهد سلامة الذكاء الاصطناعي اختبار سلامة ما قبل النشر عليها، وطبيعة الاختبار، وملخص النتائج، وما إذا كان مطورو النموذج قد أجروا أي تغييرات كإجراء وقائي”. النتيجة، وما إذا كان قد طُلب من أي مطور إجراء تغييرات ولكنه رفض القيام بذلك.
“يجب على الحكومة أيضًا أن تؤكد النماذج التي لم يتمكن المعهد من تأمين الوصول إليها وسبب ذلك. إذا رفض أي مطورين الوصول – وهو ما يمثل انتهاكًا للاتفاقية التي تم الإبلاغ عنها في قمة نوفمبر 2023 في بلتشلي بارك – فيجب على الحكومة تسميتهم وتوضيح مبرراتهم للقيام بذلك”.
اتصلت Computer Weekly بـ DSIT للتعليق على تقرير SITC، وعلى وجه التحديد ما إذا كانت قد أجرت اختبار سلامة ما قبل النشر لجميع النماذج التي وافقت الشركات على توفير الوصول إليها، لكنها لم تتلق أي رد.
خلال قمة الذكاء الاصطناعي في سيول بكوريا الجنوبية وقعت 16 شركة عالمية في مجال الذكاء الاصطناعي على التزامات Frontier AI للسلامة، وهي عبارة عن مجموعة طوعية من التدابير لكيفية تطوير التكنولوجيا بأمان.
وعلى وجه التحديد، فقد التزموا طوعًا بتقييم المخاطر التي تفرضها نماذجهم في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي بأكملها؛ ووضع عتبات مخاطر غير مقبولة للتعامل مع التهديدات الأشد خطورة؛ وتوضيح كيفية تحديد إجراءات التخفيف وتنفيذها لضمان عدم انتهاك الحدود؛ والاستثمار المستمر في قدراتهم على تقييم السلامة.
وبموجب أحد الالتزامات الطوعية الرئيسية، لن تقوم الشركات بتطوير أو نشر أنظمة الذكاء الاصطناعي إذا لم يكن من الممكن تخفيف المخاطر بشكل كافٍ.
يوشوا بنجيو – أكاديمي في مجال الذكاء الاصطناعي حائز على جائزة تورينج وعضو في المجلس الاستشاري العلمي للأمم المتحدة ويرأس منظمة الذكاء الاصطناعي الحدودية. حالة العلم قال التقرير المتفق عليه في بلتشلي – إنه على الرغم من سروره برؤية العديد من شركات الذكاء الاصطناعي الرائدة تنضم (ويرحب بشكل خاص بالتزاماتها بوقف النماذج التي تشكل مخاطر شديدة)، إلا أنها ستحتاج إلى الدعم من خلال المزيد من التدابير التنظيمية الرسمية في المستقبل. خط.
وقال: “من الواضح أن هذا الالتزام الطوعي يجب أن يكون مصحوبًا بتدابير تنظيمية أخرى، لكنه مع ذلك يمثل خطوة مهمة إلى الأمام في إنشاء نظام حوكمة دولي لتعزيز سلامة الذكاء الاصطناعي”.