عمالقة التكنولوجيا يتعهدون بالتزامات سلامة الذكاء الاصطناعي – بما في ذلك “مفتاح القتل”
شركات التكنولوجيا الكبرى، بما في ذلك مايكروسوفت, أمازون، وOpenAI، في اتفاقية دولية تاريخية بشأن سلامة الذكاء الاصطناعي في قمة سلامة الذكاء الاصطناعي في سيول يوم الثلاثاء.
وفي ضوء الاتفاقية، ستقدم الشركات من مختلف البلدان، بما في ذلك الولايات المتحدة والصين وكندا والمملكة المتحدة وفرنسا وكوريا الجنوبية والإمارات العربية المتحدة، التزامات طوعية لضمان التطوير الآمن لنماذج الذكاء الاصطناعي الأكثر تقدمًا لديها.
حيث لم يفعلوا ذلك بالفعل، وافق صانعو نماذج الذكاء الاصطناعي على نشر أطر عمل للسلامة توضح كيفية قياس تحديات نماذجهم الحدودية، مثل منع إساءة استخدام التكنولوجيا من قبل الجهات الفاعلة السيئة.
وسوف تشتمل هذه الأطر على “خطوط حمراء” لشركات التكنولوجيا التي تحدد أنواع المخاطر المرتبطة بأنظمة الذكاء الاصطناعي الحدودية، والتي قد تعتبر “لا تطاق”. تشمل هذه المخاطر، على سبيل المثال لا الحصر، الهجمات الإلكترونية الآلية وتهديد الأسلحة البيولوجية.
وللاستجابة لمثل هذه الظروف القاسية، قالت الشركات إنها تخطط لتنفيذ “مفتاح القتل” الذي من شأنه أن يوقف تطوير نماذج الذكاء الاصطناعي الخاصة بها إذا لم تتمكن من ضمان التخفيف من هذه المخاطر.
وقال ريشي سوناك، رئيس وزراء المملكة المتحدة، في بيان يوم الثلاثاء: “إنها المرة الأولى في العالم التي يوافق فيها هذا العدد الكبير من شركات الذكاء الاصطناعي الرائدة من أجزاء مختلفة من العالم على نفس الالتزامات بشأن سلامة الذكاء الاصطناعي”.
وأضاف: “تضمن هذه الالتزامات أن توفر شركات الذكاء الاصطناعي الرائدة في العالم الشفافية والمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن”.
ويوسع الاتفاق الذي تم التوصل إليه يوم الثلاثاء مجموعة سابقة من الالتزامات التي تعهدت بها الشركات المشاركة في تطوير برمجيات الذكاء الاصطناعي التوليدية في نوفمبر الماضي.
وقد وافقت الشركات على الحصول على مدخلات بشأن هذه العتبات من “الجهات الفاعلة الموثوقة”، بما في ذلك حكوماتها المحلية حسب الاقتضاء، قبل إطلاقها قبل قمة الذكاء الاصطناعي التالية المخطط لها – قمة عمل الذكاء الاصطناعي في فرنسا – في أوائل عام 2025.
وتنطبق الالتزامات المتفق عليها يوم الثلاثاء فقط على ما يسمى بالنماذج الحدودية. يشير هذا المصطلح إلى التكنولوجيا الكامنة وراء أنظمة الذكاء الاصطناعي التوليدية مثل عائلة GPT الخاصة بـ OpenAI والتي تضم نماذج لغوية كبيرة، والتي تعمل على تشغيل روبوت الدردشة ChatGPT AI الشهير.
منذ أن تم تقديم ChatGPT لأول مرة إلى العالم في نوفمبر 2022، أصبح المنظمون وقادة التكنولوجيا قلقين بشكل متزايد بشأن المخاطر المحيطة بأنظمة الذكاء الاصطناعي المتقدمة القادرة على إنشاء محتوى نصي ومرئي على قدم المساواة مع البشر أو أفضل منهم.
سعى الاتحاد الأوروبي إلى تضييق الخناق على التطوير غير المقيد للذكاء الاصطناعي من خلال إنشاء قانون الذكاء الاصطناعي الخاص به، والذي وافق عليه مجلس الاتحاد الأوروبي يوم الثلاثاء.
لم تقترح المملكة المتحدة قوانين رسمية للذكاء الاصطناعي، ومع ذلك، اختارت بدلاً من ذلك نهجًا “خفيفًا” لتنظيم الذكاء الاصطناعي والذي يستلزم قيام المنظمين بتطبيق القوانين الحالية على التكنولوجيا.
وقالت الحكومة مؤخرًا إنها ستفكر في سن تشريعات للنماذج الحدودية في المستقبل، لكنها لم تلتزم بجدول زمني لإدخال القوانين الرسمية.