أخبار التقنية

لا ترى حكومة المملكة المتحدة حاجة إلى تشريعات محددة بشأن الذكاء الاصطناعي


قال مسؤولون حكوميون للنواب إن الحوكمة الفعالة للذكاء الاصطناعي هي مسألة قدرة وإمكانات تنظيمية، وليست حاجة بين الهيئات التنظيمية لسلطات قانونية جديدة.

في مارس 2023، نشرت حكومة المملكة المتحدة تقريرها ورقة عمل الذكاء الاصطناعي، والتي تحدد خمسة مبادئ يجب على المنظمين مراعاتها لتسهيل “الاستخدام الآمن والمبتكر للذكاء الاصطناعي” في صناعاتهم.

هذه هي السلامة والأمن. الشفافية وقابلية التفسير؛ الإنصاف؛ المساءلة والحوكمة؛ والمنافسة والإنصاف.

وأضاف أنه على مدار الـ 12 شهرًا المقبلة، سيتم تكليف الهيئات التنظيمية بإصدار إرشادات عملية للمنظمات، بالإضافة إلى أدوات وموارد أخرى مثل نماذج تقييم المخاطر، التي تحدد كيفية تنفيذ المبادئ الخمسة في قطاعاتها. وقالت الحكومة إن ذلك قد يكون مصحوبًا بتشريع، عندما يسمح الوقت البرلماني، لضمان الاتساق بين الهيئات التنظيمية.

تقديم الأدلة إلى تحقيق لجنة العلوم والابتكار والتكنولوجيا – التي أطلقت تحقيقًا في إدارة المملكة المتحدة للذكاء الاصطناعي في أكتوبر 2022 مع مهمة فحص كيفية ضمان الحكومة لاستخدام التكنولوجيا بطريقة أخلاقية ومسؤولة – أوضح مسؤولو وايتهول التفكير الحالي حول سبب عدم رؤية الحكومة الحاجة إلى تشريعات جديدة تركز على الذكاء الاصطناعي.

الرد على أسئلة الرئيس جريج كلارك حول عدم وجود مشروع قانون للذكاء الاصطناعي في خطاب الملك (الذي أشار إلى أنه يحدد البرنامج التشريعي للدورة البرلمانية المقبلة حتى عام 2025)، قال عمران ميان، المدير العام للتقنيات الرقمية والاتصالات في وزارة العلوم والابتكار والتكنولوجيا (DSIT)، إن الحكومة اتخذت وجهة نظر مفادها أن “لسنا بحاجة إلى التشريع” لأن الجهات التنظيمية تفعل ذلك لقد تم بالفعل اتخاذ إجراءات للتعامل مع الأضرار المرتبطة بالذكاء الاصطناعي.

“إننا نرى بالفعل أن المنظمين يتخذون الإجراءات اللازمة ويضعون الاعتبار الواجب، إذا أردتم ذلك [whitepaper’s principles]وقال، مضيفًا أن الحكومة “ليس لديها خطط حالية للتشريع” عند الضغط عليها بشأن إمكانية تغيير هذا نتيجة للتشاور بشأن الورقة البيضاء، التي لم يتم نشرها بعد.

التنظيم الأمريكي

ومع ذلك، أشار كلارك إلى أنه حتى الولايات المتحدة ــ التي “لا تشتهر بالتنظيم الصارم” ــ فعلت ذلك شعرت بالحاجة إلى البدء في التنظيم للتحكم في استخدام التكنولوجيا، وأن بعض الهيئات التنظيمية في المملكة المتحدة – بما في ذلك أوفكوم و ال هيئة المنافسة والتسويق (CMA) – إما تم منحهم بالفعل، أو في طور منحهم، صلاحيات محدثة حتى يتمكنوا من التنظيم في مواجهة التقنيات الرقمية الجديدة.

“نعتقد أنه من المهم حقًا بالنسبة لنا أن نختبر ما إذا كان الإطار التشريعي الذي لدينا بالفعل – والإطار التشريعي الذي ما زلنا في طور التكيف معه [with the Online Safety Act, the Digital Markets Bill and new data protection legislation] قال ميان: “يمنحنا الصلاحيات ويمنح المنظمين الصلاحيات التي يحتاجون إليها للتعامل مع المخاطر”.

“إذا حددنا أمثلة على الأضرار أو الأضرار المحتملة التي تنشأ حيث لا نعتقد أن المنظمين يتخذون الخطوات الصحيحة، أو لا نعتقد أن المنظمين لديهم الصلاحيات المناسبة، فمن الواضح أن هذا هو [something we will take into consideration]”.

وأضاف مات كليفورد، وهو مستثمر بارز وممثل رئيس الوزراء لشؤون الذكاء الاصطناعي، أن هناك حاجة حقيقية لمهارات جديدة وأشخاص جدد في القطاع العام للتعامل مع الذكاء الاصطناعي، بحجة أن “هذه مسائل تتعلق بالقدرة والإمكانات وليست الصلاحيات بشكل عام”. “.

دور معهد سلامة الذكاء الاصطناعي

قال ميان إن جزءًا من الدافع لإنشاء معهد سلامة الذكاء الاصطناعي في المملكة المتحدة – أعلن عنها مؤخراً سوناك في الفترة التي سبقت القمة – هو المساعدة في تطوير قدرة القطاع العام على إجراء اختبارات وتقييمات عالية الجودة لنماذج مطوري الذكاء الاصطناعي في القطاع الخاص، وهو ما لا تقوم به حاليًا سوى الشركات نفسها.

مرددًا تصريح سوناك بأنه لا ينبغي ترك الشركات لتحدد واجباتها المنزلية، أضاف أنه بينما “يجب أن تساهم في تطوير العلم”، فمن المناسب أن تلعب الحكومة دورًا لأنها غير ملزمة بنفس الدور. الضرورات التجارية” التي قد تجعلهم، على سبيل المثال، “يندفعون إلى السوق” دون التعامل بشكل كامل مع مخاطر السلامة التي تفرضها نماذج الذكاء الاصطناعي الخاصة بهم.

مع الإشارة إلى أن مختبرات الذكاء الاصطناعي الرائدة قد قامت بذلك بالفعل وافقت على تزويد المعهد طوعًا بإمكانية الوصول إلى النماذج الأساسية الخاصة بهوأضاف كليفورد أن الحكومة لا تطلب الوصول الكامل لأنه ليس ضروريًا لنوع الاختبار المتصور.

وقال: “في نهاية المطاف، من أجل اختبار المخاطر، نحتاج إلى الوصول بالشكل الذي سيحصل عليه الجمهور”، مضيفًا لاحقًا أن أي نظام اختبار جديد سيحتاج أيضًا إلى أن يأخذ في الاعتبار فوارق القوة بين الشركات العملاقة ذات الموارد اللازمة. لتشغيل نماذج الذكاء الاصطناعي على نطاق واسع (سواء من الناحية المالية أو من حيث الوصول إلى قوة الحوسبة) ومطوري التطبيقات الأصغر.

وقال: “يجب أن تتحقق السلامة على مستوى النموذج، ولن تقوم الشركات الصغيرة والمتوسطة ببناء نماذجها الخاصة، فهي تكلف مئات الملايين من الدولارات”. “تحتاج الشركات الصغيرة والمتوسطة إلى معرفة أنه عندما تستخدم نموذج OpenAI أو نموذج Google أو نموذجًا إنسانيًا، فإن المطورين قد استثمروا في الواقع … الكثير من الوقت والمال لجعله آمنًا.

“إن الطريقة للحصول على اعتماد آمن للذكاء الاصطناعي من قبل منشئي التطبيقات هي طمأنة الجمهور بأن نماذجهم الأساسية آمنة.”

زاعمًا أن المملكة المتحدة “ربما تتقدم قليلاً على الدول الأخرى” فيما يتعلق بعملها في مجال سلامة الذكاء الاصطناعي، ويرجع ذلك جزئيًا إلى المعهد، وأشار ميان أيضًا إلى إنشاء حكومة المملكة المتحدة لمعهد معيار تسجيل الشفافية الخوارزمية عبر مركز أخلاقيات البيانات والابتكار التابع لها كدليل على التقدم الذي أحرزته، على الرغم من أن كلارك تراجع بالإشارة إلى أنه تم إصدار ستة تقارير فقط من قبل مؤسسات القطاع العام بموجب المعيار التطوعي منذ نشرها منذ أكثر من عام.

ورد ميان بأن حكومة المملكة المتحدة تدرك أهمية الشفافية، وأن المعهد قد يتبنى عملاً مماثلاً.

وتعليقًا على فريق عمل Frontier AI الذي تبلغ تكلفته 100 مليون جنيه إسترليني، والتي كانت في مهمة لإقناع كبار الباحثين في مجال الذكاء الاصطناعي بالانضمام إلى الوحدةوقال ميان إنه “فوجئ بسرور كبير بجودة الأشخاص الذين تمكنا من جلبهم” من الأوساط الأكاديمية والقطاع الخاص.

وقال إنه على الرغم من أنه ستكون هناك قيود على ما سيتمكن المعهد من قوله علنًا بشأن تقييماته، لا سيما فيما يتعلق بقدرات الذكاء الاصطناعي الحساسة التي لها آثار على الأمن القومي: “نريد أن نفعل أكبر قدر ممكن من هذا في العلن قدر الإمكان… أعتقد أن هناك توازنًا جيدًا حقًا بين كمية المعلومات التي يمكننا تقديمها.

وأضاف ميان أيضًا أنه على الرغم من عدم مراجعة أي من أعمال المعهد حتى الآن من قبل النظراء، إلا أنه كان مفيدًا بالفعل لواضعي السياسات في دفع المحادثات إلى الأمام حول سلامة الذكاء الاصطناعي وبدء التعاون الدولي بشأن هذه القضية.

وقال: “من الواضح أننا بحاجة إلى مواصلة بناء العلم حول الشكل الذي يبدو عليه التقييم الجيد”.



Source link

زر الذهاب إلى الأعلى