مركز الفكر الأمني: ما يمكن توقعه في مجال الإنترنت هذا العام
“مثل الأسد، خارج مثل الحمل” هو وصف دقيق لعام 2023. لقد كانت بداية صعبة لهذا العام مع إفلاس العديد من البنوك، تسريح العمال المستمر في قطاع التكنولوجياوظهور تدابير التقشف للشركات. ومع ذلك، بحلول ربيع عام 2023، تراجع التضخم. وقد عاد نمو الناتج المحلي الإجمالي؛ وبدأ الابتكار في تقديم تفاؤل متجدد للمؤسسات. في الواقع، شهد عام 2023 زيادة في الاستثمار فيما نسميه أكبر تغيير في التكنولوجيا والأعمال في حياتنا – الذكاء الاصطناعي التوليدي (جيناي).
في عام 2024، سيكون هناك تركيز مستمر على الابتكار حيث تتبنى المزيد من الشركات التجارب السريعة وتطلق مبادرات جديدة للذكاء الاصطناعي. ومع ذلك، سيكون من الأهمية بمكان أن تنتقل المؤسسات بأمان من التجريب إلى تنفيذ التقنيات الجديدة القائمة على الذكاء الاصطناعي. وفق فوريستر وفقًا لبيانات عام 2023، فإن 53% من صانعي القرار في مجال الذكاء الاصطناعي الذين أجرت مؤسساتهم تغييرات في السياسة فيما يتعلق بجينات الذكاء الاصطناعي يقومون بتطوير برامج حوكمة الذكاء الاصطناعي الخاصة بهم لدعم حالات استخدام الذكاء الاصطناعي. وعلى هذا النحو، سيحتاج قادة الأمن والمخاطر والخصوصية إلى الموازنة بين سرعة الابتكار والحوكمة والمساءلة بما يتجاوز التفويضات التنظيمية وسط خلفية من المخاطر المترابطة.
رمز الذكاء الاصطناعي غير الآمن وOpenAI
لسوء الحظ، نتيجة لهذا التركيز المتزايد على genAI، من المحتمل أن نشهد في عام 2024 ما لا يقل عن ثلاثة خروقات للبيانات يُلقى اللوم فيها علنًا على التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي. في الواقع، نحن نشهد اعتماد المطورين بشكل متزايد على مساعدي تطوير الذكاء الاصطناعي – المعروفة باسم TuringBots – لإنشاء التعليمات البرمجية وتعزيز الإنتاجية، وبينما تتحمل العديد من المؤسسات المسؤولية وستقوم بفحص التعليمات البرمجية بحثًا عن العيوب الأمنية، سنشهد أيضًا أن المطورين المفرطين في الثقة يتخذون موقفًا أكثر ثقة ويفترضون أن التعليمات البرمجية التي ينشئها الذكاء الاصطناعي آمنة.
وتتوقع شركة Forrester أيضًا أنه في عام 2024، سيتم تغريم التطبيق الذي يستخدم ChatGPT بسبب تعامله مع معلومات تحديد الهوية الشخصية (PII). لقد رأينا الهيئات التنظيمية تركز اهتمامها على الذكاء الاصطناعي الجيني، مع خضوع OpenAI لتدقيق شديد من جانب الهيئات التنظيمية – وذلك لسبب وجيه. في أوروبا، نشهد بالفعل تحقيقًا مستمرًا في OpenAI في ايطاليا، بينما يتعامل المحامون في بولندا مع دعوى قضائية جديدة لعدة احتمالات انتهاكات اللائحة العامة لحماية البيانات. كما قام المجلس الأوروبي لحماية البيانات أطلقت فرقة عمل لتنسيق إجراءات الإنفاذ ضد ChatGPT الخاص بـ OpenAI.
تكمن المشكلة في أن OpenAI قد تمتلك الموارد اللازمة للدفاع عن نفسها ضد المنظمين، إلا أن العديد من تطبيقات الطرف الثالث التي تعمل على ChatGPT لا تمتلك هذه الموارد. علاوة على ذلك، تتحمل بعض التطبيقات في الواقع خطرًا أكبر للغرامات من OpenAI نفسها، لأنها تسبب مخاطر عبر مزود التكنولوجيا التابع لجهة خارجية ولكنها تفتقر إلى الموارد المالية والتقنية اللازمة للتخفيف من هذه المخاطر. نحتاج بعد ذلك إلى رؤية الشركات تحدد التطبيقات التي لديها القدرة على زيادة تعرضها للمخاطر ومضاعفة إدارة مخاطر الطرف الثالث.
انفجار الثقة المعدومة والخطأ البشري
ووفقاً لتوقعات شركة فوريستر، سنرى أيضاً أدواراً مع انعدام الثقة وستتضاعف الألقاب عبر القطاعين العام والخاص في عام 2024. وفي وقت كتابة هذا التقرير، كان هناك 81 وظيفة ذات ثقة معدومة معلن عنها على LinkedIn في الولايات المتحدة، وستة في المملكة المتحدة، وواحدة في سنغافورة. ومع ذلك، فإن الجمع بين الزيادة في تفويضات الثقة المعدومة والأوامر التنفيذية في الولايات المتحدة، وانتشار الثقة المعدومة أخيرًا في منطقة آسيا والمحيط الهادئ وأوروبا والشرق الأوسط وإفريقيا، سيؤدي إلى حاجة متزايدة لأدوار الأمن السيبراني المخصصة لهندسة الثقة المعدومة، والهندسة، الحوكمة والاستراتيجية والقيادة. ونتيجة لذلك، لن يتضاعف عدد الأدوار في كل منطقة خلال العام المقبل فحسب، بل ستبدأ هذه الأدوار في الظهور في دول مثل أستراليا والهند.
وسنرى أيضًا أن الخطأ البشري يلعب دورًا بارزًا في خروقات البيانات في عام 2024. الخطأ البشري، الذي يتضمن قيام موظف أو مستخدم عن غير قصد بتمكين اختراق البيانات من خلال إساءة استخدام الامتيازات، أو استخدام بيانات الاعتماد المسروقة، أو الهندسة الاجتماعية، كان يمثل دائمًا تحديًا للمتخصصين في مجال الأمن والمخاطر، حيث تقدر العديد من منشورات الاختراق العالمية والمحلية أنها مسؤولة عن ذلك. 74% من المخالفات ومع ذلك، تتوقع شركة Forrester أن يرتفع هذا إلى 90% من خروقات البيانات في عام 2024، ويرجع ذلك في المقام الأول إلى ظهور الذكاء الاصطناعي الجيني وانتشار قنوات الاتصال التي تجعل هجمات الهندسة الاجتماعية أبسط وأسرع. وستكشف هذه الزيادة أيضًا عما يوصف غالبًا بأنه الحل السحري لتخفيف الانتهاكات البشرية، ألا وهو الوعي والتدريب الأمني. وفي عام 2024، سنشهد انتقال المزيد من كبار مسؤولي أمن المعلومات إلى الحماية البشرية التكيفية واتخاذ نهج قائم على البيانات لتغيير السلوك، مع إضافة المخاطر البشرية إلى إدارة المخاطر الأمنية.
التأمين السيبراني: البائعون مهمون
أخيرًا، في عام 2024، تتوقع شركة Forrester أن يتم اعتبار اثنين من بائعي تقنيات الأمان بمثابة علامات حمراء من قبل شركات التأمين. بعد عجز البيانات لسنوات عديدة، مقدمي التأمين السيبراني تمتلك الآن رؤى قيمة من الخدمات الأمنية والشراكات التقنية ومطالبات التأمين التي ستبدأ في التأثير على كيفية مراجعة المطالبات ومعالجتها. في الواقع، من المرجح أن نشهد وصفة متزايدة حول الممارسات الآمنة والتقنيات الأمنية المحددة التي يستخدمها حاملو وثائق التأمين. لن يكون كافيًا أن يكون هناك حل أمني محدد؛ إن استخدام البائعين الذين تعتبرهم شركات التأمين محفوفين بالمخاطر سيؤدي إلى زيادة أقساط التأمين، والتدقيق الإضافي، ومتطلبات جديدة لإدارة نقاط الضعف، وربما رفض التغطية ما لم يختاروا خيارًا أقل خطورة.
علاء فالينتي هو أحد كبار المحللين في شركة Forrester. وهي متخصصة في الحوكمة والمخاطر والامتثال وإدارة مخاطر الطرف الثالث وإدارة دورة حياة العقود ومخاطر سلسلة التوريد.