حماية البيانات و AI: ما يجب معرفته عن المعيار الإلكتروني الجديد في المملكة المتحدة

في خطوة كبيرة في وضع المملكة المتحدة في طليعة مسؤول الذكاء الاصطناعي التبني ، قدمت الحكومة ما تسميه “العالم أولاً” مدونة ممارسات الأمن السيبراني التي تركز على الذكاء الاصطناعي. صدر في 31 يناير 2025 ، مدونة الممارسة للأمن السيبراني لمنظمة العفو الدولية يمثل خطوة حاسمة في إنشاء بيئة آمنة لابتكار الذكاء الاصطناعي مع حماية البنية التحتية الرقمية من التهديدات الناشئة.
هذه المبادرة تأتي في منعطف حرج في تطوير الذكاء الاصطناعي. مع نصف شركات المملكة المتحدة إن تجربة الهجمات الإلكترونية في العام الماضي وأنظمة الذكاء الاصطناعى مضمّنة بشكل متزايد في العمليات الحرجة ، وأصبحت إنشاء أطر أمان قوية ضرورية للحفاظ على الثقة في هذه التقنيات التحويلية.
إطار عمل تم تصميمه لعصر الذكاء الاصطناعي
الرمز هو وبحسب ما ورد تم دعمه من قبل 13 مبدأ تطوير البرمجيات للمطورين للمتابعة خلال دورة حياة نظام الذكاء الاصطناعى بأكمله – من التصميم والتطوير الآمن إلى النشر والصيانة والتخلص في نهاية المطاف. على عكس معايير أمان البرمجيات العامة ، يعالج هذا الرمز على وجه التحديد نقاط الضعف الفريدة من نوعها ، بما في ذلك تسمم البيانات ، وتشويه النموذج ، والحقن السريع غير المباشر.
في حين أن الامتثال يظل طوعيًا ، فإن الإطار يحدد تسلسلًا هرميًا واضحًا للأحكام المصنفة كما هو مطلوب أو موصى به أو ممكن. يوفر هذا النهج المتدرج مرونة للمؤسسات في مراحل مختلفة من نضج الذكاء الاصطناعى مع إنشاء تدابير أمنية أساسية يجب تنفيذها من قبل أولئك الذين يختارون الامتثال.
سيكون المدونة بمثابة الأساس لمعايير عالمية جديدة من خلال معهد معايير الاتصالات الأوروبية (ETSI) ، مما قد يمتد تأثير المملكة المتحدة في حوكمة الذكاء الاصطناعي الدولي.
حاجة ملحة: أزمة تسرب بيانات الذكاء الاصطناعي
يسلط الأبحاث الحديثة الضوء على سبب وصول هذا المعيار في وقت مبكر جدًا. وفقًا لمزود حماية البيانات هارمونيك Q4 2024 تقرير في تسرب بيانات الذكاء الاصطناعى ، فإن ما يقرب من 8.5 ٪ من المطالبات الموظف إلى أدوات الذكاء الاصطناعى الشعبية تحتوي على معلومات حساسة. وهذا يخلق الأمن والامتثال والثغرات القانونية الكبيرة للمنظمات.
وجد البحث أن بيانات العميل تمثل 45 ٪ من المعلومات الحساسة المشتركة ، تليها بيانات الموظفين (26 ٪) والمعلومات القانونية والمالية (15 ٪). معظمهم فيما يتعلق بأخصائيي الأمن ، تحتوي ما يقرب من 7 ٪ من المطالبات الحساسة على معلومات متعلقة بالأمان بما في ذلك نتائج اختبار الاختراق ، وتكوينات الشبكة ، وتقارير الحوادث-تزود المهاجمين المحتملين بشكل أساسي بالمخططات للاستغلال.
تتفاقم المشكلة من خلال الاستخدام الواسع النطاق لأدوات الذكاء الاصطناعى المجاني. وجد التقرير أن 64 ٪ من مستخدمي ChatGPT اعتمدوا على المستوى المجاني ، مع إدخال 54 ٪ من المطالبات الحساسة هناك. بدون عناصر تحكم أمان المؤسسة ومع المصطلحات التي تسمح عادةً بالتدريب على استعلامات المستخدم ، تمثل هذه الأدوات المجانية متجهات كبيرة لفقدان البيانات.
نهج الذكاء الاصطناعي الاستراتيجي في المملكة المتحدة
يتناقض نهج المملكة المتحدة بشكل ملحوظ مع الإبلاغ عن الاتحاد الأوروبي قانون الذكاء الاصطناعي. بدلاً من التشريعات الشاملة ، اختارت المملكة المتحدة إطارًا عبر القسم القائم على المبادئ ويطبق اللوائح الحالية المحايدة للتكنولوجيا على الذكاء الاصطناعي. يعكس هذا تقييم الحكومة أنه على الرغم من أن الإجراء التشريعي سيكون ضروريًا في النهاية ، خاصة فيما يتعلق بأنظمة AI للأغراض العامة ، فإن التمثيل الآن سيكون سابقًا لأوانه.
يتماشى هذا النهج مع استراتيجية الذكاء الاصطناعي الأوسع في المملكة المتحدة الموضحة في خطة عمل فرص الذكاء الاصطناعي، والتي تؤكد على بيئة تنظيمية مؤيدة للانقراض تهدف إلى جذب الاستثمار التكنولوجي مع معالجة المخاوف المتعلقة بالأمن الأساسية.
التأثير الاقتصادي
يدعم المعيار طموح المملكة المتحدة ليصبح زعيمًا عالميًا لمنظمة العفو الدولية. يضم القطاع حاليًا أكثر 3،100 شركة منظمة العفو الدولية توظيف أكثر من 50000 شخص ويساهمون 3.7 مليار جنيه إسترليني بالاقتصاد. تهدف خطة عمل فرص AI التي تم إطلاقها مؤخرًا إلى تعزيز هذه الأرقام بشكل كبير ، مما قد تضيف 47 مليار جنيه إسترليني سنويًا عن طريق زيادة الإنتاجية إلى 1.5 ٪ كل عام.
وبالمثل ، من المتوقع أن ينمو سوق ضمان الذكاء الاصطناعي-ضمان عمل أنظمة الذكاء الاصطناعى على النحو المقصود-بستة أضعاف بحلول عام 2035 ، مما قد يفتح أكثر من 6.5 مليار جنيه إسترليني.
التنفيذ العملي
بالنسبة للشركات التي تتطلع إلى تنفيذ المعيار ، نشرت الحكومة دليل تنفيذ شامل. مساعدة المنظمات على تحديد المتطلبات التي تنطبق على أنواع مختلفة من أنظمة الذكاء الاصطناعي وتوفر خطوات عملية لتحقيق الامتثال. يؤكد الدليل على الأهمية الحاسمة لتتبع الحوكمة المتقدمة و بوابات بيانات الذكاء الاصطناعي لمنع التعرض الحساسة للمعلومات لنماذج GENAI العامة. ضرورة تبرزها حوادث تسرب البيانات الحديثة. يجب أن تراقب هذه الضوابط جميع تفاعلات الذكاء الاصطناعي من الموظفين والمقاولين والأطراف الثالثة الذين قد يشاركون عن غير قصد معلومات الملكية.
توفر منصة ضمان الذكاء الاصطناعية التي تم إطلاقها مؤخرًا وجهة موحدة للحصول على معلومات حول إدارة المخاطر المتعلقة بالنيابة ، مع أدوات لإجراء تقييمات التأثير وتقييم الأنظمة ومراجعة البيانات لتحيز محتمل. يدعم النظام الأساسي تنفيذ حلول المراقبة في الوقت الفعلي التي يمكنها اكتشاف البيانات الحساسة وحظرها قبل أن تصل إلى LLMs العامة. بدلاً من مجرد منع الوصول إلى أدوات الذكاء الاصطناعي ، يشجع الرمز المؤسسات على إنشاء قنوات آمنة لاستخدام الذكاء الاصطناعي التي تحافظ على الرؤية والتحكم في تدفقات البيانات مع تمكين مكاسب الإنتاجية من هذه التقنيات القوية.
نتطلع
في رأيي ، تمثل معايير الذكاء الاصطناعى الجديد في المملكة المتحدة نهجًا متوازنًا لتعزيز الابتكار مع معالجة المخاوف الأمنية. من خلال توفير أطر عمل شاملة ومرنة ، تهدف هذه المبادرات إلى بناء الثقة في أنظمة الذكاء الاصطناعي وإلغاء قفل فوائدها الاقتصادية المحتملة.
مع استمرار AI لتطورها السريع ، يوفر النهج الاستراتيجي الذي يفضل التوجيه والمبادئ على التشريعات الصارمة للشركات القدرة على التكيف اللازمة للابتكار بمسؤولية. يعتمد نجاح هذه المعايير في النهاية على تبنيها عبر القطاعات ومدى فعالياتها بشكل فعال لمعالجة التحديات الناشئة في مشهد الذكاء الاصطناعي بشكل متزايد.
جون لينش هو مدير تطوير سوق المملكة المتحدة في Kiteworks.