أمان الذكاء الاصطناعي: موازنة الابتكار مع الحماية

هل تتذكر التدافع لحاصرات USB لأن الموظفين استمروا في توصيل محركات أقراص فلاش غامضة؟ أو الزيادة المفاجئة في حظر التخزين السحابي لأن الموظفين كانوا يشاركون المستندات الحساسة من خلال حسابات Dropbox الشخصية؟ اليوم نواجه سيناريو مماثل مع استخدام الذكاء الاصطناعي غير المصرح به، ولكن هذه المرة ، من المحتمل أن تكون المخاطر أعلى.
لم يعد التحدي فقط يتعلق بتسرب البيانات بعد الآن ، على الرغم من أن هذا لا يزال مصدر قلق كبير. نحن الآن ننقل الأراضي حيث يمكن للخطر أنظمة الذكاء الاصطناعى أو معالجتها أو حتى “التمسك” للتأثير على قرارات العمل. في حين أن التلاعب على نطاق واسع من الذكاء الاصطناعي غير واضح على نطاق واسع ، فإن احتمال هذه الهجمات موجودة وتنمو مع اعتمادنا المتزايد على هذه الأنظمة. مثل بروس شنير استجوبت بشكل مناسب في مؤتمر RSA في وقت سابق من هذا العام ، “هل أوصي chatbot بك شركة طيران أو فندق معين لأنها أفضل صفقة لك ، أو لأن شركة الذكاء الاصطناعى حصلت على ركلة؟”
مثلما حدث ظلها من الموظفين الذين يبحثون عن حلول فعالة للتحديات اليومية ، ينبع منظمة العفو الدولية غير المصرح بها من نفس الرغبة الإنسانية في العمل أكثر ذكاءً ، وليس أكثر صعوبة. عندما يقوم فريق التسويق بإطعام بيانات الشركات في ChatGPT ، فإن نيتها ليست ضارة ، فإنهم ببساطة يحاولون كتابة نسخة أفضل بشكل أسرع. وبالمثل ، فإن المطورين يستخدمون مساعدين الترميز غير الرسمي غالبًا ما تحاول مواجهة المواعيد النهائية الضيقة. ومع ذلك ، فإن كل تفاعل مع نظام الذكاء الاصطناعي غير المصرح به وغير المصرح به يقدم نقاط التعرض المحتملة للبيانات الحساسة.
يكمن المخاطر الحقيقية في المزيج القوي من عاملين – السهولة التي يمكن للموظفين الوصول إليها من أدوات الذكاء الاصطناعى القوية ، والثقة الضمنية في الأماكن التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يجب أن نتعامل مع كليهما. على الرغم من أن إمكانية حل وسط نظام الذكاء الاصطناعى قد تبدو بعيدة ، فإن المخاطر الفورية الأكبر تأتي من الموظفين الذين يتخذون قرارات بناءً على محتوى تم إنشاؤه بواسطة الذكاء الاصطناعى دون التحقق المناسب. فكر في الذكاء الاصطناعي كمتدرب واثق بشكل استثنائي. إنه مفيد ومليء بالاقتراحات ولكن يتطلب الرقابة والتحقق.
تتجاوز منظمات التفكير الأمامي سياسات التقييد البسيطة. بدلاً من ذلك ، يقومون بتطوير الأطر التي تتبنى قيمة الذكاء الاصطناعي مع دمج الضمانات اللازمة والمناسبة. يتضمن ذلك توفير أدوات AI آمنة ومصرح بها تلبي احتياجات الموظفين أثناء تنفيذ عمليات التحقق للمخرجات التي تم إنشاؤها بواسطة الذكاء الاصطناعى. يتعلق الأمر بتعزيز ثقافة الشكوك الصحية وتشجيع الموظفين على الثقة ولكن التحقق ، بغض النظر عن مدى موثوق نظام الذكاء الاصطناعى.
يلعب التعليم دورًا مهمًا ، ولكن ليس من خلال التدريب القائم على الخوف حول مخاطر الذكاء الاصطناعي. بدلاً من ذلك ، تحتاج المؤسسات إلى مساعدة الموظفين على فهم سياق استخدام الذكاء الاصطناعي – كيف تعمل هذه الأنظمة ، وقيودها ، والأهمية الحاسمة للتحقق. ويشمل ذلك تدريس تقنيات التحقق البسيطة والعملية وإنشاء مسارات تصعيد واضحة عندما تبدو مخرجات الذكاء الاصطناعى مشبوهة أو غير عادية.
يجمع النهج الأكثر فعالية بين الأدوات الآمنة والعمليات الذكية. يجب على المؤسسات توفير منصات الذكاء الاصطناعي المعتمدة والمعتمدة ، مع إنشاء إرشادات واضحة للتعامل مع البيانات والتحقق من الإخراج. هذا لا يتعلق بالابتكار الخنق – إنه يتعلق بتمكينه بأمان. عندما يفهم الموظفون كل من إمكانيات وقيود أنظمة الذكاء الاصطناعي ، فإنهم يتم تجهيزهم بشكل أفضل لاستخدامها بمسؤولية.
بالنظر إلى الأمام ، فإن المنظمات التي ستنجح في تأمين مبادرات الذكاء الاصطناعى لها ليست تلك التي لديها أكثر السياسات الصارمة – فهي التي يفهمون السلوك البشري والعمل بشكل أفضل. تمامًا كما تعلمنا تأمين التخزين السحابي من خلال توفير بدائل قابلة للحياة لحسابات Dropbox الشخصية ، سنقوم بتأمين الذكاء الاصطناعي من خلال تمكين الموظفين بالأدوات المناسبة مع الحفاظ على الأمان التنظيمي.
في النهاية ، يكون أمان الذكاء الاصطناعي أكثر من مجرد حماية الأنظمة – إنه يتعلق بحماية عمليات صنع القرار. يجب تقييم كل ناتج تم إنشاؤه من الذكاء الاصطناعى من خلال عدسة سياق العمل والحس السليم. من خلال تعزيز ثقافة يكون فيها التحقق من الروتين وتشجيع الأسئلة ، يمكن للمؤسسات أن تسخر فوائد الذكاء الاصطناعي مع تخفيف مخاطرها.
مثل الفرامل على سيارة F1 التي تمكنها من القيادة بشكل أسرع ، لا يتعلق الأمان بإعاقة العمل: إنه يتعلق بتسهيلها بأمان. يجب ألا ننسى أبدًا أن الحكم الإنساني يبقى الدفاع الأكثر قيمة ضد التلاعب والتسوية.
Javvad Malik هو محامي التوعية الأمنية في knowbe4




