CISO: لا تمنع الذكاء الاصطناعي ، ولكن تبنيها بعيون مفتوحة على مصراعيها

مقدمة AI التوليدي (Genai) أدوات مثل ChatGpt و Claude و Copilot قد خلقت فرصًا جديدة للكفاءة والابتكار – ولكن أيضًا مخاطر جديدة. بالنسبة للمؤسسات التي تدير بالفعل البيانات الحساسة ، والتزامات الامتثال ، ومشهد تعقيد معقد ، من الضروري عدم التسرع في التبني دون تقييم مخاطر مدروس ومواءمة السياسة.
كما هو الحال مع أي تقنية جديدة ، يجب أن تكون الخطوة الأولى هي فهم الاستخدامات المقصودة وغير المقصودة لـ Genai وتقييم كل من نقاط القوة والضعف. هذا يعني مقاومة الرغبة في تبني أدوات الذكاء الاصطناعي لمجرد أنها شائعة. يجب أن تدفع المخاطر التنفيذ – وليس العكس.
تفترض المنظمات غالبًا أنها تحتاج إلى سياسات جديدة تمامًا لـ Genai. في معظم الحالات ، هذا ليس ضروريًا. طريقة أفضل هي تمديد الأطر الحالية – مثل سياسات الاستخدام المقبولة ، ومخططات تصنيف البيانات ، و ISO 27001-وثائق ISMS المحاذاة-لمعالجة السيناريوهات الخاصة بـ Genai. يمكن أن تؤدي إضافة طبقات من السياسات المنفصلة إلى إرباك الموظفين وتؤدي إلى تعب السياسة. بدلاً من ذلك ، فإن دمج مخاطر Genai في الأدوات والإجراءات التي يفهمها الموظفون بالفعل.
بقعة عمياء رئيسية هي أمان المدخلات. يركز العديد من الأشخاص على ما إذا كان الناتج الذي تم إنشاؤه بواسطة الذكاء الاصطناعى دقيقًا أو متحيزًا في الواقع ، لكنهم يتجاهلون المخاطر الأكثر إلحاحًا: ما الذي يقوم به الموظفون في LLMs العامة. غالبًا ما تتضمن المطالبات تفاصيل حساسة – أسماء المشاريع الداخلية ، وبيانات العميل ، والمقاييس المالية ، وحتى بيانات الاعتماد. إذا لم يرسل الموظف هذه المعلومات إلى مقاول خارجي ، فلا ينبغي أن يقوموا بإطعامها لنظام الذكاء الاصطناعى الذي يستضيفه علنًا.
من الأهمية بمكان التمييز بين أنواع مختلفة من الذكاء الاصطناعي. لا يتم إنشاء كل المخاطر على قدم المساواة. مخاطر استخدام التعرف على الوجه في المراقبة تختلف عن إعطاء فريق المطورين وصولًا إلى نموذج GENAI مفتوح المصدر. تجمعها معًا بموجب سياسة الذكاء الاصطناعي المفرط في تبسيط المشهد المخاطر وقد يؤدي إلى ضوابط غير ضرورية – أو أسوأ من النقاط العمياء.
هناك خمسة مخاطر أساسية يجب أن تتناولها فرق الأمن السيبراني:
تسرب البيانات غير المقصود: من خلال استخدام أدوات GENAI العامة أو الأنظمة الداخلية التي تم تكوينها الخاطئ.
تسمم البيانات: المدخلات الخبيثة التي تؤثر على نماذج الذكاء الاصطناعي أو القرارات الداخلية.
الاحتكار المفرط في إخراج الذكاء الاصطناعي: خاصة عندما لا يستطيع الموظفون التحقق من الدقة.
الحقن الفوري والهندسة الاجتماعية: استغلال أنظمة الذكاء الاصطناعى للاختراق البيانات أو معالجة المستخدمين.
فراغ السياسة: حيث يحدث استخدام الذكاء الاصطناعي بشكل غير رسمي دون إشراف أو مسارات تصعيد.
معالجة هذه المخاطر ليست مجرد مسألة تقنية. يتطلب التركيز على الناس. التعليم ضروري. يجب أن يفهم الموظفون ماهية Genai ، وكيف يعمل ، وأين من المحتمل أن يخطئ. يمكن أن يقلل التدريب الخاص بالدور-للمطورين وفرق الموارد البشرية وموظفي التسويق-بشكل كبير من سوء الاستخدام وبناء ثقافة التفكير النقدي.
يجب أن تحدد السياسات أيضًا الاستخدام المقبول بوضوح. على سبيل المثال ، هل من المقبول استخدام chatgpt للحصول على تعليمات الترميز ، ولكن ليس لكتابة اتصالات العميل؟ هل يمكن استخدام الذكاء الاصطناعى لتلخيص دقائق اللوحة ، أم أن هذا خارج الحدود؟ تعد الحدود الواضحة المقترنة بحلقات التغذية المرتدة – حيث يمكن للمستخدمين الإشارة إلى مشكلات أو الحصول على توضيح – مفتاح السلامة المستمرة.
أخيرًا ، يجب أن يستند استخدام Genai إلى استراتيجية الإنترنت. من السهل الحصول على جرف في الضجيج من الذكاء الاصطناعي ، ولكن يجب أن يبدأ القادة بالمشكلة التي يحلونها – وليس الأداة. إذا كان الذكاء الاصطناعى منطقيًا كجزء من هذا الحل ، فيمكن دمجه بأمان ومسؤولية في الأطر الحالية.
الهدف ليس منع منظمة العفو الدولية. إنها تبنيها بعيون مفتوحة – من خلال تقييم المخاطر المنظم ، وتكامل السياسة ، وتعليم المستخدم ، والتحسين المستمر.




