ينشر NCSC إرشادات بارزة حول الأمن السيبراني للذكاء الاصطناعي
المملكة المتحدة المركز الوطني للأمن السيبراني نشرت مجموعة من المبادئ التوجيهية المصممة للمساعدة في ضمان تطوير تكنولوجيا الذكاء الاصطناعي (AI) بشكل آمن ومأمون، وتم كتابتها جنبًا إلى جنب مع شركاء قطاع التكنولوجيا، وتم تطويرها بمساعدة حاسمة من الولايات المتحدة. وكالة الأمن السيبراني وأمن البنية التحتية (سيسا).
ال إرشادات لتطوير نظام الذكاء الاصطناعي الآمن يقال إنها الأولى من نوعها في العالم، وإلى جانب المملكة المتحدة والولايات المتحدة، تم تطويرها بمدخلات من دول مجموعة السبع الأخرى والوكالات الدولية والهيئات الحكومية من عدد من البلدان، بما في ذلك أصوات من الجنوب العالمي.
وقالت ليندي كاميرون، الرئيس التنفيذي لمركز NCSC: “نحن نعلم أن الذكاء الاصطناعي يتطور بوتيرة هائلة وأن هناك حاجة إلى عمل دولي متضافر، عبر الحكومات والصناعة، لمواكبته”.
“تمثل هذه المبادئ التوجيهية خطوة مهمة في تشكيل فهم عالمي مشترك حقًا للمخاطر السيبرانية واستراتيجيات التخفيف المتعلقة بالذكاء الاصطناعي لضمان أن الأمن ليس ملحقًا بالتنمية ولكنه مطلب أساسي طوال الوقت.
وقالت: “أنا فخورة بأن المركز الوطني للأمن السيبراني يقود الجهود الحاسمة لرفع مستوى الأمن السيبراني للذكاء الاصطناعي: إن الفضاء السيبراني العالمي الأكثر أمانًا سيساعدنا جميعًا على تحقيق الفرص الرائعة التي توفرها هذه التكنولوجيا بأمان وثقة”.
وأضافت نظيرة كاميرون الأمريكية، مديرة CISA جين إيسترلي: “إن إطلاق سراح إرشادات لتطوير نظام الذكاء الاصطناعي الآمن يمثل علامة فارقة رئيسية في التزامنا الجماعي – من قبل الحكومات في جميع أنحاء العالم – لضمان تطوير ونشر قدرات الذكاء الاصطناعي الآمنة حسب التصميم.
“بينما تتبنى الدول والمنظمات القوة التحويلية للذكاء الاصطناعي، فإن هذا التعاون الدولي، الذي شارك في تطويره مركز NCSC في المملكة المتحدة وCISA، يؤكد التفاني العالمي لتعزيز الشفافية والمساءلة والممارسات الآمنة.
“إن الوحدة المحلية والدولية في تعزيز مبادئ التصميم الآمن وبناء أساس مرن للتطوير الآمن لأنظمة الذكاء الاصطناعي في جميع أنحاء العالم لا يمكن أن تأتي في وقت أكثر أهمية من تطورنا التكنولوجي المشترك. يؤكد هذا الجهد المشترك من جديد مهمتنا المتمثلة في حماية البنية التحتية الحيوية ويعزز أهمية التعاون عبر الحدود في تأمين مستقبلنا الرقمي.
تم تصميم مجموعة الإرشادات لمساعدة مطوري أي نظام يتضمن الذكاء الاصطناعي على اتخاذ قرارات مستنيرة بشأن الأمن السيبراني أثناء عملية التطوير – سواء تم إنشاؤه من الصفر أو كإضافة إلى أداة أو خدمة موجودة مقدمة من قبل آخر كيان.
يعتقد NCSC أن الأمن هو “شرط مسبق أساسي لسلامة نظام الذكاء الاصطناعي” وجزء لا يتجزأ من عملية التطوير منذ البداية وطوال الوقت.
وبطريقة مشابهة لكيفية آمن حسب التصميم يتم تطبيق المبادئ التي ألمح إليها عيد الفصح لـ CISA بشكل متزايد على تطوير البرمجيات، ولا ينبغي أن يكون تحقيق القفزة المعرفية لتطبيق نفس التوجيه على عالم الذكاء الاصطناعي أمرًا صعبًا للغاية.
المبادئ التوجيهية، والتي يمكن الوصول إليها بالكامل عبر موقع NCSC، مقسمة إلى أربعة مسارات رئيسية – التصميم الآمن، والتطوير الآمن، والنشر الآمن، والتشغيل والصيانة الآمنة، وتتضمن السلوكيات المقترحة للمساعدة في تحسين الأمان. ويشمل ذلك تولي ملكية النتائج الأمنية للعملاء والمستخدمين، وتبني “الشفافية الجذرية”، وإدخال ممارسات التصميم الآمن في الهياكل التنظيمية والتسلسلات الهرمية للقيادة.
تمت الموافقة على الوثيقة بالفعل وختمها بشكل مشترك من قبل عدد من المنظمات الرئيسية في هذا المجال، بما في ذلك عمالقة التكنولوجيا أمازون وجوجل ومايكروسوفت وOpenAI، وممثلون من 17 دولة أخرى – إلى جانب تحالف العيون الخمس الاستخباراتي ومجموعة السبع، بما في ذلك تشيلي وتشيكيا وإستونيا وإسرائيل ونيجيريا والنرويج وبولندا وسنغافورة وكوريا الجنوبية.
بالنسبة لحكومة المملكة المتحدة، يعتمد إنشاء الوثيقة على المناقشات التي أجريت في قمة سلامة الذكاء الاصطناعي في بداية نوفمبر، والذي على الرغم من أنه لم يكن حدثًا يركز بشكل صريح على الأمن السيبراني، إلا أنه سعى مع ذلك إلى بدء المحادثة الضرورية حول الكيفية التي ينبغي للمجتمع أن يتبعها إدارة مخاطر الذكاء الاصطناعي.
بالنسبة للأميركيين، فإنه يتبع من خارطة طريق CISA المنشورة مؤخرًا حول الذكاء الاصطناعي، الذي يدعم الأمر التنفيذي الصادر في أكتوبر وقعه الرئيس جو بايدن ويهدف هذا إلى بناء أساس من المعايير التي قد تدعم ذات يوم التشريعات على مستوى الولايات أو المستوى الفيدرالي في الولايات المتحدة ــ مع تأثير عالمي لا مفر منه.
تحدد خارطة الطريق الخاصة بـ CISA خمسة “خطوط جهد” ينبغي اتباعها. هؤلاء هم:
- لاستخدام الذكاء الاصطناعي بشكل مسؤول لدعم المهمة السيبرانية الأساسية لـ CISA؛
- تقييم وضمان تكنولوجيا الذكاء الاصطناعي الآمنة التصميم عبر القطاعين الخاص والعام؛
- لحماية البنية التحتية الوطنية الحيوية (CNI) من الذكاء الاصطناعي الخبيث؛
- التعاون والتواصل بشأن جهود الذكاء الاصطناعي في الولايات المتحدة وفي بقية أنحاء العالم؛
- ولتوسيع خبرات ومهارات الذكاء الاصطناعي.
الصناعة تتفاعل
“يمكن تشبيه هذه الأيام الأولى للذكاء الاصطناعي بنفخ الزجاج: فبينما يكون الزجاج سائلًا، يمكن تحويله إلى أي شكل، ولكن بمجرد أن يبرد، يصبح شكله ثابتًا. وقال إن الهيئات التنظيمية تسعى جاهدة للتأثير على تنظيم الذكاء الاصطناعي أثناء تبلوره WithSecure مستشار الأمن السيبراني بول بروتشياني.
“يتم إصدار المبادئ التوجيهية بسرعة لأنها لا تتطلب تشريعات، ومع ذلك، إن سي إس سي وقد عملت CISA بسرعة مذهلة لتجميع هذه القائمة من الموقعين. الموقعون على الاتفاقية هم Amazon وGoogle وMicrosoft وOpenAI، مطورو الذكاء الاصطناعي الرائدون عالميًا. والغائب البارز عن القائمة هو الاتحاد الأوروبي”.
Darktrace وقال توبي لويس، الرئيس العالمي لتحليل التهديدات: “يعد الأمن شرطًا أساسيًا لذكاء اصطناعي آمن وجدير بالثقة، وتوفر المبادئ التوجيهية الحالية الصادرة عن الوكالات بما في ذلك NCSC وCISA مخططًا مرحبًا به. ويسعدني أن أرى أن الإرشادات تؤكد على ضرورة قيام موفري الذكاء الاصطناعي بتأمين بياناتهم ونماذجهم من المهاجمين، وضرورة قيام مستخدمي الذكاء الاصطناعي بتطبيق الذكاء الاصطناعي المناسب للمهمة الصحيحة.
“يجب على أولئك الذين يبنون الذكاء الاصطناعي أن يذهبوا إلى أبعد من ذلك وأن يبنوا الثقة من خلال اصطحاب المستخدمين في رحلة حول كيفية وصول الذكاء الاصطناعي الخاص بهم إلى إجاباته. بالأمان والثقة سندرك أضاف لويس، الذي شغل قبل تعيينه في Darktrace منصب نائب المدير الفني لإدارة الحوادث في NCSC لمدة أربع سنوات، “فوائد الذكاء الاصطناعي بشكل أسرع ولعدد أكبر من الأشخاص”.