اللورد هولمز: لا تستطيع المملكة المتحدة “الانتظار والترقب” لتنظيم الذكاء الاصطناعي
يقول اللورد كريستوفر هولمز، النائب المحافظ، إن نهج “الانتظار والترقب” الذي تتبعه حكومة المملكة المتحدة لتنظيم الذكاء الاصطناعي ليس جيدًا بما يكفي عندما تحدث أضرار حقيقية في الوقت الحالي. فاتورة الأعضاء الخاصة إنشاء رقابة قانونية على التكنولوجيا.
منذ أن نشرت الحكومة تقريرها ورقة عمل الذكاء الاصطناعي وفي مارس/آذار 2023، كان هناك جدل كبير حول ما إذا كان الإطار “المرن المؤيد للابتكار” الذي حددته لتنظيم التكنولوجيا هو النهج الصحيح.
وبموجب هذه المقترحات، ستعتمد الحكومة على الهيئات التنظيمية القائمة لإنشاء قواعد مخصصة ومحددة السياق تناسب الطرق التي يتم بها استخدام التكنولوجيا في القطاعات التي تفحصها.
منذ أن تم إصدار الورقة البيضاء، تعمل الحكومة على نطاق واسع على الترويج للحاجة إلى سلامة الذكاء الاصطناعيعلى أساس أن الشركات لن تتبنى الذكاء الاصطناعي ما لم تثق في أن المخاطر المرتبطة بالتكنولوجيا – من التحيز والتمييز إلى التأثير على نتائج التوظيف والعدالة – يتم تخفيفها بشكل فعال.
في حين ضاعفت الحكومة من هذا النهج الشامل في عملها الرد الرسمي على مشاورة الورقة البيضاء من يناير 2024، وزعمت أنها لن تصدر تشريعات بشأن الذكاء الاصطناعي حتى يحين الوقت المناسب، فهو يقول الآن هناك يمكن أن تكون قواعد ملزمة أدخلت أسفل السطر لأنظمة الذكاء الاصطناعي الأكثر خطورة.
التحدث مع كمبيوتر ويكلي حول له التشريع المقترح لمنظمة العفو الدولية – والذي تم عرضه على البرلمان في نوفمبر 2023 ومرت به القراءة الثانية في 22 مارس – قال هولمز إن “الانتظار والترقب ليس استجابة مناسبة”، لأنه يعني “أن تكون مثقلًا بمخاطر” التكنولوجيا بينما لا تتمكن من الاستفادة من فوائدها.
“يقع الناس بالفعل على الجانب الخطأ من قرارات الذكاء الاصطناعي في التوظيف، وفي القائمة المختصرة، وفي التعليم العالي، وقد لا يجد الناس أنفسهم فقط في الجانب الخطأ من قرار الذكاء الاصطناعي، بل في كثير من الأحيان، قد لا يعرفون حتى أن هذا هو الحال، ” هو قال.
اللورد كريس هولمز
يقول هولمز إن مشروع القانون الخاص به مبني على سبعة مبادئ هي الثقة، والشفافية، والشمول، والابتكار، وقابلية التشغيل البيني، والمشاركة العامة، والمساءلة، وسوف ينشئ هيئة تنظيمية مركزية أفقية لإدارة وتنسيق النهج القطاعي الحالي للحكومة. ومن شأنه أيضًا إنشاء “مسؤولين مسؤولين عن الذكاء الاصطناعي” يؤدون وظيفة مماثلة في الشركات لمسؤولي حماية البيانات، ووضع قواعد واضحة حول تصنيف البيانات والتزامات الملكية الفكرية، بما يتماشى مع القوانين الحالية.
ومن شأن مشروع القانون أيضًا “تنفيذ برنامج للمشاركة العامة الهادفة وطويلة الأمد حول الفرص والمخاطر التي يمثلها الذكاء الاصطناعي”، والاستفادة بشكل أكبر من البيئة التنظيمية لاختبار التكنولوجيا بأمان قبل النشر الفعلي.
وفي حين أن مشاريع القوانين التي يقدمها الأعضاء نادراً ما تصبح قوانين، فإنها غالباً ما تستخدم كآلية لإثارة المناقشات حول القضايا المهمة واختبار الرأي في البرلمان.
السلامة والشمولية والمشاركة
وفي إشارة إلى تركيز الحكومة على سلامة الذكاء الاصطناعي، قال هولمز إنه “من الغريب إلى حد ما” أن نرى ذلك الكثير من النقاش حول التهديد الوجودي المحتمل للتكنولوجيا في الفترة التي تسبق رئاسة الوزراء قمة سلامة الذكاء الاصطناعي في بلتشلي بارك في العام الماضي، فقط لتبني نهج طوعي إلى حد كبير.
“إذا كنا ندرك عنصر السلامة، فمن الضروري ويجب عليك ربط العناصر التي يؤثر فيها الذكاء الاصطناعي بالفعل على حياة الناس. إن السبيل للحصول على تلك السيطرة على السلامة، وتلك السيطرة على الاستخدام الإيجابي والأخلاقي للذكاء الاصطناعي – بالتأكيد – هو التشريع.
“الحجة التي تقدمها الحكومة هي شيء من هذا القبيل، “إن الوقت مبكر جدًا، وسوف تخنق الابتكار قبل أن تتاح له الفرصة للانطلاق، ومن المحتمل أن تخنق الاستثمار”، ولكن كل الدروس المستفادة من التاريخ تثبت لنا أنه إذا إذا كان لديك الإطار التشريعي الصحيح، فهذه فائدة إيجابية، لأن المستثمرين والمبتكرين يعرفون البيئة التي يتجهون إليها.
بالنسبة لهولمز، جزء من جعل أنظمة الذكاء الاصطناعي آمنة للأعمال والجمهور هو جعلها شاملة من حيث التصميم.
وقال: “إذا كنت تريد أفضل النتائج، فيجب عليك – ويجب عليك بالتأكيد – اتباع نهج شامل حسب التصميم”. “إن الشمول هو الذي يتيح الابتكار الحقيقي الشامل.”
ربط هذا ب إنشاء الحكومة لمعهد سلامة الذكاء الاصطناعي وفي أعقاب قمة بلتشلي، أضاف هولمز أنه يجب ضم مجموعة أكبر بكثير من الأشخاص إلى المنظمة، التي تتكون حاليًا بشكل أساسي من خبراء فنيين من الصناعة والأوساط الأكاديمية.
“أريد أن أرى الفيلسوف، والأخلاقي، والفنان، والشركة الناشئة في مجال الصناعة، والتوسع، والرأسمالي المغامر – المجموعة الكاملة من الأشخاص الذين يمكنهم جميعًا تقديم خبراتهم، وتجربتهم، وأصواتهم؛ ليس فقط من الذكاء الاصطناعي الضيق، ولكن من مجموعة كاملة من القطاعات.
وبينما يجب أن يكون هناك تنوع وشمول على مستوى السياسات والبحث، أضاف هولمز أن “القلب النابض” لمشروع قانونه هو المشاركة العامةلأنها تولد الثقة في التكنولوجيا والعمليات المحيطة بها.
وبدون الثقة التي تأتي من المشاركة العامة الهادفة، كرر هولمز أنه “من غير المرجح أن يحصل الناس على الفوائد” في حين “من المرجح للغاية أن يعانون من أعباء الذكاء الاصطناعي المفروض”.
وقال إن انتشار الذكاء الاصطناعي “يمنحنا فرصة لإحداث تحول كامل في كيفية تفاعل الدولة مع الأفراد، ومع المواطنين، لجعل التشاور ينبض بالحياة بشكل صحيح وإنسانيًا بشكل صحيح”.
إبراز فكرة مجالس المواطنين والأمثلة عليها “مجالس المحاذاة” في تايوان – مشروع حكومي يحاول بناء إجماع حول الذكاء الاصطناعي والتأكد من أن تطبيقات التكنولوجيا تتفق مع اهتمامات الناس – وقال هولمز إنه يمكن اعتماد شيء مماثل في المملكة المتحدة.
وقال: “إن نوع النتائج، ونوع الأفكار، ونوع الذكاء الحقيقي الذي يمكن أن ينتج عن ذلك سيكون بالتأكيد عميقًا للغاية”.
سد الفجوات
تتمثل إحدى الركائز الأساسية لمشروع قانون الذكاء الاصطناعي الذي قدمه هولمز في الحاجة إلى “سلطة الذكاء الاصطناعي” الشاملة، والتي من شأنها أن تلعب دورًا تنسيقيًا لضمان قيام جميع الهيئات التنظيمية الحالية بمعالجة التزاماتها بموجب النهج الحكومي.
“الغرض الحقيقي لسلطة الذكاء الاصطناعي، كما هو منصوص عليه في مشروع القانون، ليس أن تكون جهة تنظيمية ضخمة للذكاء الاصطناعي تفعل كل شيء، وليس القليل منه. وقال إن ذلك سيكون مكلفا للغاية، وبيروقراطيا، وازدواجيا، ودون المستوى الأمثل. “دورها هو النظر أفقيا عبر الهيئات التنظيمية.”
وأضاف هولمز أن هذا من شأنه أن يضمن التقييم المستقل لكفاءة الجهات التنظيمية فيما يتعلق بالذكاء الاصطناعي، فضلاً عن مدى ملاءمة الأطر القانونية الحالية، مع ضمان أن جميع الإجراءات مدعومة بالمبادئ الأساسية.
وقال: “الشفافية، والجدارة بالثقة، والشمول، وقابلية التشغيل البيني، والمنظور الدولي، والمساءلة، والضمان – يمكن لسلطة الذكاء الاصطناعي أن تكون الناشر المطلق لكل هذه المبادئ في جميع أنحاء القطعة”.
تسليط الضوء على نجاح المملكة المتحدة صناديق حماية التكنولوجيا المالية (fintech).، والتي تم تكرارها منذ ذلك الحين في الولايات القضائية حول العالم، قال هولمز إن هيئة الذكاء الاصطناعي يمكن أن تلعب أيضًا دورًا في تنسيق صناديق الحماية التنظيمية لاختبار الاستخدامات المختلفة للذكاء الاصطناعي بشكل صحيح.
يوليو 2023 تحليل الفجوة من قبل معهد آدا لوفليس وجدت أن “مساحات كبيرة” من اقتصاد المملكة المتحدة إما غير منظمة أو منظمة جزئيًا فقط، مما يعني أنه ليس من الواضح من سيكون مسؤولاً عن التدقيق في عمليات نشر الذكاء الاصطناعي بموجب النهج الذي تقترحه الحكومة. وقال هولمز إن هيئة أفقية مثل هيئة الذكاء الاصطناعي التي اقترحها يمكن أن تعالج بعض هذه القضايا المتعلقة بنقص التغطية وضعف التعويض.
“إن دور هيئة الذكاء الاصطناعي هو إلى حد كبير تسليط الضوء على كل تلك الثغرات، وكل أوجه القصور تلك أمام الحكومة، حتى يمكن معالجتها – بدلاً من الاعتقاد أنه بأي حال من الأحوال من الممكن للمنظمين الحاليين أن يفعلوا كل هذا بشكل رأسي. دون النظر إلى كل شيء بطريقة متماسكة ومتسقة وأفقية.
إنفاذ القواعد القائمة
يركز جزء من مشروع قانون الذكاء الاصطناعي الذي قدمه هولمز على الحاجة إلى استخدامات التكنولوجيا للامتثال للقوانين الموجودة بالفعل، ولكنها سقطت عمومًا على جانب الطريق عندما يتعلق الأمر بالذكاء الاصطناعي.
وقال: “إن الذكاء الاصطناعي هو مجرد أحدث مثال على حجة “الحدود”، التي ظهرت عبر التاريخ في أي فترة من الابتكارات المهمة”.
“إنها الحجة التي تعود إلى تأسيس العديد من الدول – “لا تحاصرني؛ لا تحاصرني”. القواعد لا تنطبق علي؛ عليك أن تدعنا نواصل الأمر؛ نحن نقوم بأشياء مبتكرة ومختلفة عن الجميع، ولا تنطبق القواعد”. ولم يكن لهذه الحجة أي وزن أو جدارة أو أساس أخلاقي في أي وقت من تاريخ البشرية.
وشدد هولمز على وجه الخصوص على أهمية قواعد حماية البيانات والملكية الفكرية الحالية، مشيرًا على سبيل المثال إلى أن الأمر لا يتعلق بالمنع الكامل استخدام الأعمال المحمية بحقوق الطبع والنشر في نماذج تدريب الذكاء الاصطناعي، ولكن حول إتاحتها في التفاوض مع أصحاب الحقوق.
وقال: “إن وجود حجة مفادها أن الذكاء الاصطناعي يمكن أن يزحف على عمل الناس مع التخلي التام، كما لو أن القواعد لا تنطبق، هو أمر غير مقبول على الإطلاق، مضيفًا أن هناك حاجة ماسة إلى تشريع الذكاء الاصطناعي لحماية المبدعين في المملكة المتحدة: “إذا كنا لا تتحركوا، إذا لم نسن التشريع، فسيكون الأوان قد فات في كثير من الحالات”.
“الكتابة والأعمال الفنية والموسيقى. هذه هي الأشياء التي تتناغم مع روحنا البشرية، لا يمكن أخذها وانتزاعها بدون تفكير، وبدون كلمة، وبدون دفع، وبدون احترام”.