تستجيب حكومة المملكة المتحدة لاستشارات الورقة البيضاء الخاصة بالذكاء الاصطناعي
قالت حكومة المملكة المتحدة إنها ستفكر في إنشاء “متطلبات ملزمة مستهدفة” لشركات مختارة تعمل على تطوير أنظمة ذكاء اصطناعي ذات قدرة عالية (AI)، كجزء من استجابتها التي طال انتظارها لمشاورة الورقة البيضاء الخاصة بالذكاء الاصطناعي.
وأكدت الحكومة أيضًا أنها ستستثمر أكثر من 100 مليون جنيه إسترليني في تدابير لدعم إطارها التنظيمي المقترح للذكاء الاصطناعي، بما في ذلك العديد من المشاريع المتعلقة بسلامة الذكاء الاصطناعي وسلسلة من مراكز البحث الجديدة في جميع أنحاء المملكة المتحدة.
تم النشر في مارس 2023، الورقة البيضاء أوجز مقترحات الحكومة “المؤيدة للابتكار” لتنظيم الذكاء الاصطناعي، والتي تدور حول تمكين الهيئات التنظيمية الحالية من إنشاء قواعد مخصصة ومحددة السياق تناسب طرق استخدام التكنولوجيا في القطاعات التي تفحصها.
كما حددت خمسة مبادئ يجب على الهيئات التنظيمية مراعاتها لتسهيل “الاستخدام الآمن والمبتكر للذكاء الاصطناعي” في صناعاتها، وهي مبنية بشكل عام على النهج الذي حددته الحكومة في تقريرها الصادر في سبتمبر 2021. الاستراتيجية الوطنية للذكاء الاصطناعي والتي سعت إلى تحفيز اعتماد الشركات على التكنولوجيا وتعزيز المهارات وجذب المزيد من الاستثمارات الدولية.
ردا على الاستشارة العامة – التي امتدت من 29 مارس إلى 21 يونيو 2023 وتلقت 406 مقترحات من مجموعة من الأطراف المهتمة – أكدت الحكومة بشكل عام التزامها بمقترحات الكتاب الأبيض، زاعمة أن هذا النهج في التنظيم سيضمن بقاء المملكة المتحدة أكثر مرونة من “الدول المنافسة” بينما ووضعها أيضًا على المسار الصحيح لتكون رائدة في ابتكارات الذكاء الاصطناعي الآمنة والمسؤولة.
وقالت وزارة العلوم والابتكار والتكنولوجيا (DSIT) في بيان صحفي: “إن التكنولوجيا تتطور بسرعة، ولا تزال المخاطر ووسائل التخفيف المناسبة غير مفهومة بالكامل”.
“لن تتعجل حكومة المملكة المتحدة في سن التشريعات، أو المخاطرة بتنفيذ قواعد “الحل السريع” التي ستصبح قريبًا قديمة أو غير فعالة. وبدلاً من ذلك، فإن النهج القائم على السياق الذي تتبعه الحكومة يعني تمكين الهيئات التنظيمية الحالية من معالجة مخاطر الذكاء الاصطناعي بطريقة مستهدفة.
إمكانية المتطلبات الملزمة
وكجزء من استجابتها، حددت الحكومة “تفكيرها الأولي” فيما يتعلق بالمتطلبات الملزمة في المستقبل، والتي قالت “يمكن تقديمها للمطورين الذين يبنون أنظمة الذكاء الاصطناعي الأكثر تقدمًا” لضمان بقائهم خاضعين للمساءلة.
وجاء في الرد التشاوري الرسمي: “من الواضح أنه إذا استمر النمو المتسارع لقدرات الذكاء الاصطناعي، وإذا اعتبرت التدابير التطوعية – كما نعتقد – غير متناسبة مع المخاطر، فستحتاج البلدان إلى بعض التدابير الملزمة للحفاظ على سلامة الجمهور”. مضيفًا أن أنظمة الذكاء الاصطناعي للأغراض العامة “ذات القدرة العالية” تتحدى النهج الحكومي القائم على السياق نظرًا لكيفية تداخل هذه الأنظمة مع المهام التنظيمية.
“في حين تُظهر بعض الهيئات التنظيمية أساليب متقدمة لمعالجة الذكاء الاصطناعي ضمن اختصاصاتها، فإن العديد من أطرنا القانونية الحالية واختصاصاتنا التنظيمية قد لا تخفف بشكل فعال من المخاطر التي تشكلها أنظمة الذكاء الاصطناعي ذات الأغراض العامة ذات القدرة العالية.”
وأضاف أنه على الرغم من تطبيق القواعد والقوانين الحالية بشكل متكرر على مستوى النشر أو التطبيق للذكاء الاصطناعي، فإن المنظمات التي تنشر أو تستخدم هذه الأنظمة قد لا تكون في وضع جيد لتحديد المخاطر التي يمكن أن تشكلها أو تقييمها أو التخفيف منها: “إذا كان هذا هو الحال وفي هذه الحالة، فإن المسؤوليات الجديدة الملقاة على عاتق مطوري نماذج الأغراض العامة ذات القدرة العالية قد تعالج المخاطر بشكل أكثر فعالية.
لكن، كما أوضحت الحكومة أنها لن تتعجل في سن تشريعات لفرض إجراءات ملزمةوأن أي تنظيم مستقبلي سوف يستهدف في نهاية المطاف عدداً صغيراً من مطوري أقوى الأنظمة ذات الأغراض العامة.
وأضافت: “ستفكر الحكومة في فرض إجراءات ملزمة إذا قررنا أن إجراءات التخفيف الحالية لم تعد كافية وحددنا التدخلات التي من شأنها تخفيف المخاطر بطريقة مستهدفة”.
“كما هو الحال مع أي قرار للتشريع، فإن الحكومة لن تفكر في تقديم تشريع إلا إذا لم نكن واثقين بما فيه الكفاية من أن التدابير الطوعية سيتم تنفيذها بشكل فعال من قبل جميع الأطراف المعنية وإذا قيمنا أنه لا يمكن تخفيف المخاطر بشكل فعال باستخدام السلطات القانونية القائمة.”
كما أنها ملتزمة بإجراء مراجعات منتظمة للثغرات التنظيمية المحتملة على أساس مستمر: “نحن لا نزال ملتزمين بالنهج التكراري المنصوص عليه في الورقة البيضاء، ونتوقع أن إطار عملنا سوف يحتاج إلى التطور مع ظهور مخاطر جديدة أو ثغرات تنظيمية.”
أ تحليل الفجوات الذي أجراه بالفعل معهد Ada Lovelace في يوليو 2023، وجدت أنه نظرًا لأن “مساحات كبيرة” من اقتصاد المملكة المتحدة إما غير منظمة أو منظمة جزئيًا فقط، فليس من الواضح من سيكون مسؤولاً عن التدقيق في عمليات نشر الذكاء الاصطناعي في مجموعة من السياقات المختلفة.
ويشمل ذلك ممارسات التوظيف والتوظيف، التي لا تخضع للمراقبة الشاملة؛ والتعليم والشرطة، اللذان تتم مراقبتهما وإنفاذهما من قبل شبكة غير متكافئة من الهيئات التنظيمية؛ والأنشطة التي تقوم بها إدارات الحكومة المركزية التي لا تخضع للتنظيم المباشر.
وفقًا للوزيرة الرقمية ميشيل دونيلان، فإن النهج الذي تتبعه المملكة المتحدة في تنظيم الذكاء الاصطناعي جعل البلاد بالفعل رائدة عالميًا في كل من سلامة الذكاء الاصطناعي وتطوير الذكاء الاصطناعي.
وقالت: “إن الذكاء الاصطناعي يتحرك بسرعة، لكننا أظهرنا أن البشر يمكنهم التحرك بنفس السرعة”. “من خلال اتباع نهج رشيق خاص بقطاعات معينة، بدأنا في السيطرة على المخاطر على الفور، وهو ما يمهد بدوره الطريق أمام المملكة المتحدة لتصبح واحدة من أولى الدول في العالم التي تجني فوائد الذكاء الاصطناعي بأمان.”
تمويل جديد
فيما يتعلق بالتمويل الجديد المعلن عنه لتحقيق طموحات النهج المقترح، خصصت الحكومة ما يقرب من 90 مليون جنيه إسترليني لإطلاق تسعة مراكز بحثية جديدة، والتي تم تصميمها للمساعدة في تسخير إمكانات التكنولوجيا في المجالات الرئيسية مثل الرعاية الصحية والكيمياء والرياضيات.
وسيتم استثمار 19 مليون جنيه إسترليني أخرى في 21 مشروعًا “للذكاء الاصطناعي المسؤول” للمساعدة في تسريع نشرها، في حين سيتم منح تمويل قدره مليوني جنيه إسترليني من مجلس أبحاث الفنون والعلوم الإنسانية (AHRC) للمشاريع التي تتطلع إلى تعريف الذكاء الاصطناعي المسؤول.
كما خصصت الحكومة أيضًا مبلغ 10 ملايين جنيه إسترليني لإعداد الهيئات التنظيمية في المملكة المتحدة وتحسين مهاراتها، مما سيساعدهم على تطوير “أحدث الأبحاث والأدوات العملية” لرصد ومعالجة استخدام الذكاء الاصطناعي في القطاعات التي ينظمونها.
“لقد اتخذ العديد من المنظمين إجراءات بالفعل. على سبيل المثال، قام مكتب مفوض المعلومات بتحديث التوجيهات حول كيفية تطبيق قوانيننا القوية لحماية البيانات على أنظمة الذكاء الاصطناعي التي تعالج البيانات الشخصية لتشمل العدالة، واستمر في مساءلة المؤسسات، على سبيل المثال من خلال إصدار إشعارات التنفيذ.
“ومع ذلك، تريد حكومة المملكة المتحدة البناء على ذلك من خلال تجهيزهم بشكل أكبر لعصر الذكاء الاصطناعي مع تزايد استخدام التكنولوجيا. سيسمح النظام التنظيمي المرن في المملكة المتحدة في الوقت نفسه للجهات التنظيمية بالاستجابة بسرعة للمخاطر الناشئة، مع منح المطورين مساحة للابتكار والنمو في المملكة المتحدة.
وأضافت DSIT أنه في محاولة لتعزيز الشفافية وتوفير الثقة لكل من الشركات والمواطنين البريطانيين، طُلب من الهيئات التنظيمية الرئيسية مثل Ofcom وهيئة المنافسة والأسواق (CMA) نشر مناهجها الخاصة لإدارة التكنولوجيا بحلول 30 أبريل 2024. .
وأضافت: “سيقومون بتحديد المخاطر المتعلقة بالذكاء الاصطناعي في مجالاتهم، وتفصيل مهاراتهم وخبراتهم الحالية لمعالجتها، وخطة لكيفية تنظيم الذكاء الاصطناعي خلال العام المقبل”.
قضية حقوق التأليف والنشر
في 4 فبراير 2024، قبل يوم واحد من الرد على مشاورة الورقة البيضاء، تم الأوقات المالية ذكرت أن المملكة المتحدة تضع مؤقتًا على الرفوف التي طال انتظارها مدونة قواعد السلوك بشأن استخدام المواد المحمية بحقوق الطبع والنشر في نماذج تدريب الذكاء الاصطناعي بسبب الخلافات بين المديرين التنفيذيين في الصناعة حول الشكل الذي يجب أن تبدو عليه قواعد الممارسة الطوعية.
وذكرت أنه في حين أن شركات الذكاء الاصطناعي ترغب في الوصول بسهولة إلى مجموعات كبيرة من المحتوى لنماذجها، فإن شركات الصناعات الإبداعية تشعر بالقلق من أنها لن تحصل على تعويض عادل عن استخدام النماذج لموادها المحمية بحقوق الطبع والنشر.
وقالت الحكومة في ردها على المشاورة: “من الواضح الآن أن مجموعة العمل [of industry executives] لن نتمكن من الاتفاق على مدونة طوعية فعالة”. وأضافت أن الوزراء سيقودون الآن المزيد من المشاركة مع شركات الذكاء الاصطناعي وأصحاب الحقوق.
وقالت: “سيحتاج نهجنا إلى أن يكون مدعومًا بالثقة والشفافية بين الأطراف، مع قدر أكبر من الشفافية من مطوري الذكاء الاصطناعي فيما يتعلق بمدخلات البيانات وإسناد المخرجات الذي له دور مهم يلعبه”.
“لذلك سيتضمن عملنا أيضًا استكشاف آليات لتوفير قدر أكبر من الشفافية حتى يتمكن أصحاب الحقوق من فهم ما إذا كان المحتوى الذي ينتجونه يُستخدم كمدخل في نماذج الذكاء الاصطناعي.”
وفقا لجريج كلارك – رئيس لجنة العلوم والابتكار والتكنولوجيا بمجلس العموم (SITC)، التي تجري التحقيق المستمر في مقترحات حوكمة المملكة المتحدة للذكاء الاصطناعي – قد لا تكون قوانين حقوق الطبع والنشر الحالية في المملكة المتحدة مناسبة لإدارة كيفية استخدام المواد المحمية بحقوق الطبع والنشر في نماذج تدريب الذكاء الاصطناعي.
وقال إن السبب في ذلك هو أن هناك تحديات “خاصة” يطرحها الذكاء الاصطناعي والتي قد تتطلب تحديث الصلاحيات الحالية، مثل ما إذا كان من الممكن تتبع استخدام المواد المحمية بحقوق الطبع والنشر في نماذج الذكاء الاصطناعي أو ما هي درجة التخفيف من المواد الأصلية المحمية بحقوق الطبع والنشر. مقبول.
وقال: “إذا أخذت مقطوعة موسيقية أو قطعة كتابية، ونفضت الغبار عنها باعتبارها ملكًا لك أو لشخص آخر، فإن السوابق القضائية راسخة”. “ولكن ليس هناك الكثير من السوابق القضائية، في الوقت الحالي، كما أفهمها، ضد استخدام الموسيقى في مقطوعة موسيقية جديدة تعتمد على مئات الآلاف من المساهمين. وهذا تحدٍ جديد تماماً.”
وفي تقرير نُشر في 2 فبراير 2024، حثت اللجنة الحكومة لاحقًا على عدم “الجلوس على يديها” بينما يستغل مطورو الذكاء الاصطناعي عمل أصحاب الحقوق، و وبخ شركات التكنولوجيا لاستخدامها البيانات دون إذن أو تعويض.
الرد على دعوى حقوق الطبع والنشر المرفوعة من قبل ناشري الموسيقى، ادعت شركة الذكاء الاصطناعي المنتجة Anthropic في يناير 2024 وأن المحتوى الذي يتم استيعابه في نماذجها يندرج تحت “الاستخدام العادل”، وأن “أدوات الذكاء الاصطناعي ذات الأغراض العامة اليوم لا يمكن أن توجد ببساطة” إذا اضطرت شركات الذكاء الاصطناعي إلى دفع تراخيص حقوق الطبع والنشر مقابل المواد.
وادعى أيضًا أن حجم مجموعات البيانات المطلوبة لتدريب حاملي الحقوق هو ببساطة أكبر من أن يعمل نظام ترخيص فعال: “لا يمكن للمرء الدخول في معاملات ترخيص مع عدد كافٍ من أصحاب الحقوق لتغطية مليارات النصوص اللازمة لإنتاج تريليونات من الرموز المميزة التي تتطلبها LLM للأغراض العامة للتدريب المناسب. إذا كانت هناك حاجة إلى تراخيص لتدريب حاملي شهادة الماجستير في القانون على المحتوى المحمي بحقوق الطبع والنشر، فإن أدوات الذكاء الاصطناعي ذات الأغراض العامة اليوم لا يمكن أن توجد ببساطة.