تعتبر القواعد الجديدة لتطوير الذكاء الاصطناعي الآمن تاريخية، لكن هل لها أهمية؟
يزدهر تطوير واعتماد الذكاء الاصطناعي (AI) بينما تعمل الهيئات التنظيمية في جميع أنحاء العالم على فهم هذه التكنولوجيا ومخاطرها المحتملة. الاتحاد الأوروبي هو المحرك المبكر مع قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي. أصدر الرئيس جو بايدن أ أمر تنفيذي واسع النطاق الدعوة إلى معايير لضمان سلامة وأمن أنظمة الذكاء الاصطناعي. تقوم هيئات المعايير بإصدار أطر عمل تتناول الذكاء الاصطناعي. على سبيل المثال، أطلق المعهد الوطني للمعايير والتكنولوجيا (NIST). إطار إدارة مخاطر الذكاء الاصطناعي. الآن، ظهرت على الساحة مجموعة جديدة من الإرشادات التي يجب على مطوري الذكاء الاصطناعي مراعاتها.
قاد المركز الوطني للأمن السيبراني (NCSC) في المملكة المتحدة ووكالة الأمن السيبراني وأمن البنية التحتية (CISA) الأمريكية تطوير البرنامج. إرشادات لتطوير نظام الذكاء الاصطناعي الآمن. وإلى جانب الولايات المتحدة والمملكة المتحدة، وافقت 16 دولة إضافية على اتباع الاتفاقية غير الملزمة.
ما الذي تطرحه هذه الإرشادات الأخيرة على الطاولة مع استمرار تزايد المخاوف المتعلقة بالسلامة والأمن جنبًا إلى جنب مع انتشار إمكانيات الذكاء الاصطناعي المثيرة؟
المبادئ التوجيهية
هذه الإرشادات الجديدة موجهة في المقام الأول إلى مقدمي أنظمة الذكاء الاصطناعي، سواء كانت تلك الأنظمة مبنية من الصفر أو فوق الخدمات المقدمة من قبل الآخرين. لكن مؤلفي الوثيقة يحثون جميع أصحاب المصلحة على قراءة الإرشادات لمساعدتهم على اتخاذ قرارات مستنيرة حول كيفية القيام بذلك منظمة العفو الدولية يستخدم في منظماتهم
تم تقسيم الوثيقة إلى أربعة أقسام: التصميم الآمن، والتطوير الآمن، والنشر الآمن، والعمليات والصيانة الآمنة.
يركز القسم الأول من المبادئ التوجيهية على قياس المخاطر ونمذجة التهديدات عندما تكون أنظمة الذكاء الاصطناعي في مرحلة التصميم من دورة حياتها.
تحث إرشادات التطوير الآمن مقدمي أنظمة الذكاء الاصطناعي على النظر في أمن سلسلة التوريد والتوثيق والديون الفنية.
في مرحلة النشر من دورة حياة نظام الذكاء الاصطناعي، تدعو المبادئ التوجيهية إلى الحماية الاستباقية ضد اختراق النموذج، وتطوير عمليات إدارة الحوادث والإفراج المسؤول.
تركز إرشادات التشغيل والصيانة الآمنة على السلامة والأمن بمجرد نشر النظام. تدعو الوثيقة موفري أنظمة الذكاء الاصطناعي إلى مراقبة سلوك أنظمتهم ومدخلاتها وإعطاء الأولوية لمبادئ الأمان حسب التصميم لأي تحديثات للنظام. وأخيرا، تدعو المبادئ التوجيهية مقدمي النظام إلى تبني الشفافية وتبادل المعلومات بشأن أمن النظام.
التأثير المحتمل
تعد هذه المبادئ التوجيهية مؤشرًا آخر على الرغبة في التعاون العالمي بشأن سلامة الذكاء الاصطناعي وأمنه ومخاطره. إنهم يرسلون رسالة إلى صناعة الذكاء الاصطناعي مفادها أن هذه المخاوف لن تختفي. “في الوقت الحالي، نحن نعلم أن الكثير من الناس يقومون بأشياء دون أي شعور حقيقي بالمسؤولية، وهم يفعلون أشياء [without] يقول ديفي أوتينهايمر، نائب رئيس الثقة والأخلاقيات الرقمية في شركة “لا يوجد أي إحساس حقيقي بالأخلاق”. يقاطع، شركة حلول البنية التحتية للبيانات.
تعد هذه المبادئ التوجيهية مؤشرًا آخر على الرغبة في التعاون العالمي بشأن سلامة الذكاء الاصطناعي وأمنه ومخاطره. إنهم يرسلون رسالة إلى صناعة الذكاء الاصطناعي مفادها أن هذه المخاوف لن تختفي.
إذًا، ماذا تعني هذه الإرشادات لمطوري أنظمة الذكاء الاصطناعي؟ أولا وقبل كل شيء، هذه المبادئ التوجيهية هي بالضبط ما يلي؛ فهي غير قابلة للتنفيذ. “ستكون لدينا مؤسسات تركز على سرعة الوصول إلى السوق والحصول على ميزات وإمكانات جديدة وزيادة الإيرادات وأشياء من هذا القبيل. يقول كريس هيوز، كبير مستشاري الأمن في شركة “استرضاء المستثمرين”. مختبرات إندور، منصة إدارة دورة حياة التبعية مفتوحة المصدر وزميل الابتكار السيبراني في CISA. “سوف يتناقض هذا مع متطلبات الأمن والصرامة والحوكمة.”
لكن هيوز يشير إلى أن هناك فوائد لاتباع هذه الإرشادات حتى لو لم تكن إلزامية. “أعتقد أنه إذا قام مطورو الذكاء الاصطناعي الكبار بدمج هذه التوصيات وهذه الممارسات التي يتحدثون عنها طوال دورة حياة تطوير البرمجيات بأكملها، فيمكنهم التخفيف من الكثير من الأشياء التي نسمع عنها مخاوف حول ما إذا كان ذلك تحيزًا أو تسميمًا لبيانات النموذج أو التلاعب بشكل أساسي بالنظام. ويوضح سلامة النموذج أو النظام.
على الرغم من أن هذه الإرشادات تستهدف مطوري أنظمة الذكاء الاصطناعي، إلا أنها قد تكون لها فوائد للمستخدمين النهائيين إذا تم تنفيذها. يتحمل المستخدمون النهائيون أيضًا مسؤولية التعرف على مخاطر استخدام أنظمة الذكاء الاصطناعي، راندي لاريار، مدير ممارسات البيانات الضخمة والتحليلات في شركة الخدمات الاستشارية والحلول للأمن السيبراني. أوبتيف، يشير الى. ويقول: “باعتباري مستخدمًا للذكاء الاصطناعي، أعتقد أنه من المهم التركيز على النتائج، والتركيز على أفضل الجهود لمحاولة التوافق مع أطر الأمان واختيار حالات الاستخدام والأنشطة في نهاية المطاف… التي تم فحصها من منظور المخاطر”.
في حين أن هذه المبادئ التوجيهية هي أساس مفيد للتفكير في المخاطر، إلا أنها عالية المستوى إلى حد ما وتفتقر إلى توصيات تكتيكية محددة، وفقا لهيوز. ويقول لاريار إنه لا يزال هناك عمل يتعين القيام به من أجل “… ترجمة هذه المبادئ التوجيهية وجعلها متوافقة مع واقع بيئة التكنولوجيا، وبيئة السياسات”.
ما الذي سيأتي بعد ذلك بالنسبة للذكاء الاصطناعي؟
إن الالتزام بهذه المبادئ التوجيهية أمر طوعي، وهناك العديد من الأطر الأخرى لسلامة الذكاء الاصطناعي وأمنه ومخاطره. تواجه الشركات التي تقوم ببناء وتوفير أنظمة الذكاء الاصطناعي تحديات في التنقل في مستنقع من التوصيات واللوائح. يقول لاريار: “لا نعرف حتى الآن أي منها سيبرز باعتباره الأكثر فائدة والأكثر اعتماداً على نطاق واسع”. “قرر لمؤسستك فيما يتعلق ببيئة المخاطر الخاصة بك، والبيئة التنظيمية الخاصة بك، والأشياء التي تحتاج إلى حمايتها، وكيف ستتعامل مع هذه الأطر المختلفة وما ستفعله.”
وبينما تدرس الجهات التنظيمية كيفية المضي قدماً، فسوف تواجه تحديات تتمثل في إيجاد التوازن الدقيق بين الإشراف على صناعة الذكاء الاصطناعي من دون عوائق غير مبررة أمام التقدم. ويشير أوتنهايمر إلى أن التنظيم الذاتي للصناعة من المرجح أن يلعب دورًا في المستقبل. ويقول: “إنها تعمل في المجالات التي تعرف فيها الصناعة كيفية القيام بما هو أفضل للصناعة والذي يفيد أيضًا الأشخاص المتأثرين بها”.
يقدم Ottenheimer معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) كمثال. عرفت شركات بطاقات الائتمان أن المستهلكين لن يستخدموا منتجاتها إذا كان الاحتيال متفشياً، مما أدى إلى تطوير PCI DSS لأمن بطاقات الائتمان.
يمكن أن تعطي المساحة السحابية أيضًا فكرة عن كيفية تطور الأمان في مجال الذكاء الاصطناعي. يقول لاريار: “عندما انطلقت السحابة، لم يكن هناك الكثير من الاعتبارات الأمنية”. “بمرور الوقت، ظهر بائعو السحابة أنفسهم بالإضافة إلى النظام البيئي للشركاء لضمان تكوين السحابة الخاصة بك بشكل آمن، وأنك تقوم بالاستجابة للكشف بطريقة ناضجة وأنك تقوم بالفعل بتأمين دورة الحياة الكاملة لتطوير السحابة والاستخدام.”
من الممكن أن تعمل الصناعة والجهات التنظيمية معًا لإنشاء معايير محددة ودمج الأمن في الذكاء الاصطناعي، ولكن هناك المزيد من المخاطر التي يجب التعامل معها. “المشكلة نفسها صعبة للغاية، لأنه كيف يمكنك تنظيم شيء عالمي؟” يسأل مارتن راند، المؤسس المشارك والرئيس التنفيذي لشركة باكتوم منظمة العفو الدولية، شركة مفاوضات مستقلة. “أي شخص جرب ChatGPT يرى أنه يمكن استخدامه في أي شيء: للعلم أو لكتابة قصيدة.”
يرى راند أنه لا توجد حتى الآن مبادئ توجيهية عملية تعالج مخاطر الذكاء الاصطناعي مثل توليد المحتوى الاصطناعي، والمعلومات المضللة، ونشر التحيزات الضارة. ماذا عن المخاطر الوجودية للذكاء الاصطناعي؟ “ماذا سيحدث إذا كان نظام الذكاء الاصطناعي [suddenly starts] يجعل نفسه أكثر ذكاءً ويحدث انفجار في الذكاء، مما يترك الناس في الخلف؟ يسأل راند.
ويشكل وضع القواعد التنظيمية اللازمة لمعالجة هذه المخاطر على نطاق عالمي تحديا هائلا. لدى الدول المختلفة مصالح متنافسة، مما يجعل إنشاء هيئة تنظيمية مشتركة حلاً غير مرجح، وفقًا لراند. وبدلا من ذلك، يقترح إنشاء هيئة دولية للبحث العلمي تركز على التهديدات الوجودية التي يشكلها الذكاء الاصطناعي.
تُظهر المبادئ التوجيهية الجديدة الوعي بالمخاطر، ولكنها مجرد خطوة مبكرة نحو معالجة الأسئلة الكبيرة المتعلقة بسلامة وأمن الذكاء الاصطناعي. يقول أوتنهايمر: “أعتقد أن هذا يوضح أنه لا يزال هناك الكثير من العمل الذي يتعين القيام به”.