قمة الذكاء الاصطناعي في سيول: 27 دولة والاتحاد الأوروبي يضعون خطوطًا حمراء بشأن مخاطر الذكاء الاصطناعي
التزمت أكثر من عشرين دولة بوضع عتبات المخاطر المشتركة لنماذج الذكاء الاصطناعي الحدودية للحد من آثارها الضارة، كجزء من اتفاقية لتعزيز الذكاء الاصطناعي الآمن والمبتكر والشامل.
تم التوقيع عليه في اليوم الثاني من قمة الذكاء الاصطناعي في سيول من قبل 27 حكومة والاتحاد الأوروبي بيان سيول الوزاري لتعزيز سلامة الذكاء الاصطناعي والابتكار والشمولية ويحدد التزامهم بتعميق التعاون الدولي في مجال سلامة الذكاء الاصطناعي.
وسيشمل ذلك الاتفاق بشكل جماعي على عتبات المخاطر حيث تكون المخاطر التي تشكلها نماذج أو أنظمة الذكاء الاصطناعي شديدة دون إجراءات التخفيف المناسبة؛ وإنشاء أطر إدارة مخاطر قابلة للتشغيل البيني للذكاء الاصطناعي في ولاياتها القضائية؛ وتعزيز التقييمات الخارجية الموثوقة لنماذج الذكاء الاصطناعي.
وفيما يتعلق بالمخاطر الشديدة، سلط البيان الضوء على إمكانات نموذج الذكاء الاصطناعي التي من شأنها أن تسمح للأنظمة بالتهرب من الرقابة البشرية، أو التصرف بشكل مستقل دون موافقة أو إذن بشري صريح؛ فضلاً عن مساعدة الجهات الفاعلة غير الحكومية على المضي قدماً في تطوير الأسلحة الكيميائية أو البيولوجية.
وأشار البيان إلى أنه “من الضروري الوقاية من مجموعة كاملة من مخاطر الذكاء الاصطناعي”، وأضاف البيان أنه سيتم استخدام معاهد سلامة الذكاء الاصطناعي التي يتم إنشاؤها في جميع أنحاء العالم لتبادل أفضل الممارسات ومجموعات بيانات التقييم، بالإضافة إلى التعاون لإنشاء اختبارات سلامة قابلة للتشغيل البيني. القواعد الارشادية.
“قد تشمل معايير تقييم المخاطر التي تشكلها نماذج أو أنظمة الذكاء الاصطناعي الحدودية النظر في القدرات والقيود والنزعات والضمانات المنفذة، بما في ذلك المتانة ضد الهجمات والتلاعب الخصومة الخبيثة، والاستخدامات وإساءات الاستخدام المتوقعة، وسياقات النشر، بما في ذلك النظام الأوسع الذي يتم فيه استخدام الذكاء الاصطناعي. قد يكون نموذج الذكاء الاصطناعي متكاملاً ومدى الوصول وعوامل الخطر الأخرى ذات الصلة.
ومع ذلك، على الرغم من أن البيان يفتقر إلى التحديد، إلا أنه أكد ذلك التزام الموقعين بالقوانين الدولية ذات الصلةبما في ذلك قرارات الأمم المتحدة وحقوق الإنسان الدولية.
وقالت الوزيرة الرقمية البريطانية ميشيل دونيلان إن الاتفاقيات التي تم التوصل إليها في سيول تمثل بداية “المرحلة الثانية من أجندة سلامة الذكاء الاصطناعي”، حيث ستتخذ الدول “خطوات ملموسة” لتصبح أكثر مرونة في مواجهة مخاطر الذكاء الاصطناعي المختلفة.
وقالت: “بالنسبة للشركات، يتعلق الأمر بوضع حدود للمخاطرة، والتي لن يتم بعدها إطلاق نماذجهم”. “بالنسبة للبلدان، سوف نتعاون لتحديد العتبات التي تصبح فيها المخاطر شديدة. وستواصل المملكة المتحدة لعب الدور الرائد على الساحة العالمية لتعزيز هذه المحادثات.
الابتكار والشمولية
وشدد البيان أيضًا على أهمية “الابتكار” و”الشمولية”. بالنسبة للأولى، سلط الضوء على وجه التحديد على حاجة الحكومات إلى إعطاء الأولوية للاستثمار في الذكاء الاصطناعي وتمويل الأبحاث؛ تسهيلات الوصول إلى الموارد المتعلقة بالذكاء الاصطناعي للمؤسسات الصغيرة والمتوسطة الحجم والشركات الناشئة والأوساط الأكاديمية والأفراد؛ والاستدامة عند تطوير الذكاء الاصطناعي.
وقالت: “في هذا الصدد، نشجع مطوري الذكاء الاصطناعي وموزعيه على أن يأخذوا في الاعتبار بصمتهم البيئية المحتملة مثل استهلاك الطاقة والموارد”. “نحن نرحب بالجهود التعاونية لاستكشاف التدابير المتعلقة بكيفية تحسين مهارات القوى العاملة لدينا وإعادة مهاراتها لتكون واثقة من أن مستخدمي ومطوري الذكاء الاصطناعي يعززون الابتكار والإنتاجية.
“علاوة على ذلك، نحن نشجع الجهود التي تبذلها الشركات لتعزيز تطوير واستخدام نماذج أو أنظمة ومدخلات الذكاء الاصطناعي الموفرة للموارد مثل تطبيق شرائح الذكاء الاصطناعي منخفضة الطاقة وتشغيل مراكز البيانات الصديقة للبيئة في جميع أنحاء تطوير وخدمات الذكاء الاصطناعي.”
وتعليقًا على جوانب الاستدامة، قال وزير العلوم وتكنولوجيا المعلومات والاتصالات الكوري الجنوبي لي جونغ هو: “سنعزز التعاون العالمي بين معاهد سلامة الذكاء الاصطناعي في جميع أنحاء العالم ونشارك الحالات الناجحة لرقائق الذكاء الاصطناعي منخفضة الطاقة للمساعدة في التخفيف من الآثار السلبية العالمية على الطاقة و البيئة الناجمة عن انتشار الذكاء الاصطناعي.
“سنواصل المضي قدما في الإنجازات التي تحققت في جمهورية كوريا [the Republic of Korea] والمملكة المتحدة إلى القمة المقبلة في فرنسا، ونتطلع إلى تقليل المخاطر المحتملة والآثار الجانبية للذكاء الاصطناعي مع خلق المزيد من الفرص والفوائد.
وفيما يتعلق بالشمولية، أضاف البيان أن الحكومات ملتزمة بتعزيز التعليم المتعلق بالذكاء الاصطناعي من خلال بناء القدرات وزيادة المعرفة الرقمية؛ واستخدام الذكاء الاصطناعي لمعالجة بعض التحديات الأكثر إلحاحا في العالم؛ وتعزيز نهج الحوكمة التي تشجع مشاركة البلدان النامية.
اليوم الأول
وخلال اليوم الأول من القمة، وقع الاتحاد الأوروبي ومجموعة أصغر مكونة من 10 دول على إعلان سيول، الذي يبني على تباطؤ بلتشلي تم التوقيع عليه قبل ستة أشهر من قبل 28 حكومة والاتحاد الأوروبي في المؤتمر قمة سلامة الذكاء الاصطناعي الافتتاحية في المملكة المتحدة.
وفي حين أشار إعلان بلتشلي إلى أهمية العمل الشامل بشأن سلامة الذكاء الاصطناعي، أكد إعلان سيول صراحة على “أهمية التعاون النشط بين أصحاب المصلحة المتعددين” في هذا المجال، وألزم الحكومات المعنية بالعمل “بنشاط” تضمين مجموعة واسعة من أصحاب المصلحة في المناقشات المتعلقة بالذكاء الاصطناعي.
كما وقعت نفس الدول العشر والاتحاد الأوروبي على الاتفاقية بيان نوايا سيول تجاه التعاون الدولي في علوم سلامة الذكاء الاصطناعي، والتي ستشهد اجتماع معاهد البحوث المدعومة من القطاع العام لضمان “التكامل وقابلية التشغيل البيني” بين عملها الفني والنهج العام لسلامة الذكاء الاصطناعي – وهو ما حدث بالفعل بين معاهد الولايات المتحدة والمملكة المتحدة.
في نفس اليوم، وقعت 16 شركة عالمية في مجال الذكاء الاصطناعي على التزامات Frontier AI للسلامة، وهي عبارة عن مجموعة طوعية من التدابير لكيفية تطوير التكنولوجيا بأمان.
وعلى وجه التحديد، فقد التزموا طوعًا بتقييم المخاطر التي تفرضها نماذجهم في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي بأكملها؛ ووضع عتبات مخاطر غير مقبولة للتعامل مع التهديدات الأشد خطورة؛ وتوضيح كيفية تحديد إجراءات التخفيف وتنفيذها لضمان عدم انتهاك الحدود؛ والاستثمار المستمر في قدراتهم على تقييم السلامة.
وبموجب أحد الالتزامات الطوعية الرئيسية، لن تقوم الشركات بتطوير أو نشر أنظمة الذكاء الاصطناعي إذا لم يكن من الممكن تخفيف المخاطر بشكل كافٍ.
وتعليقًا على التزام الشركات بحدود المخاطر، قالت بيث بارنز، مؤسس ورئيس قسم الأبحاث في منظمة METR غير الربحية لسلامة نماذج الذكاء الاصطناعي: “من الضروري الحصول على اتفاق دولي بشأن “الخطوط الحمراء” حيث يصبح تطوير الذكاء الاصطناعي خطيرًا بشكل غير مقبول”. على السلامة العامة.”