الأمن السيبراني

تكلفة أمن الذكاء الاصطناعي


لقد كنا هنا من قبل. تظهر تقنية جديدة ومثيرة مع وعد بتحويل الأعمال. سباق المؤسسات لتبنيه. البائعين يصرخون لإنشاء حالات الاستخدام الأكثر إغراء. العمل أولاً ، الأمن الثاني. لقد رأينا هذا مع السحابة ، والآن نحن في المراحل المبكرة مع تقنية جديدة: الذكاء الاصطناعي. وجدت دراسة استقصائية أجراها IBM ذلك فقط 24 ٪ من مشاريع GENAI تشمل عنصر الأمن.

“الآن ، المجالس أكثر ذكاءً حول ضرورة الأمن السيبراني. يقول أكيبا سعيدي ، نائب رئيس إدارة المنتجات في شركة Global Technology Company ، أمن IBM.

هذا الوعي يعني أن المزيد من قادة المؤسسات يفكرون في الذكاء الاصطناعي في سياق الأمن ، حتى لو كانت قضية العمل تفوز على الأمن في الوقت الحالي. ما هي تكاليف الأمن التي تدخلها الذكاء الاصطناعي في بيئة المؤسسة؟ كيف تحتاج الميزانيات إلى التكيف للتعامل مع هذه التكاليف؟

أمان البيانات

أمان البيانات ليس مفهومًا جديدًا أو تكلفة للمؤسسات. ولكن من الضروري الحفاظ على أمان الذكاء الاصطناعي.

“قبل أن تتمكن حقًا من القيام بأمان من الذكاء الاصطناعى جيدًا ، يجب أن يكون لديك أمان جيد للبيانات لأنه في قلب الذكاء الاصطناعي هو حقًا البيانات ، والكثير من الشركات والأشخاص الذين تحدثنا إليهم لا يزالون يواجهون مشكلة في … البيانات الأساسية طبقة ، “جون جيغليو ، مدير الأمن السحابي في Cloud Solutions Provider سادا، شركة Insight ، تخبر Information Week.

متعلق ب:الأزمة الصامتة: مخاطر الخرق غير البشرية

بالنسبة للمؤسسات التي لم تعطى الأولوية لأمن البيانات بالفعل ، يمكن أن تكون محادثة الميزانية حول أمان الذكاء الاصطناعي أمرًا صعبًا. “يمكن أن يكون هناك تكاليف مخفية للغاية. يقول جيغليو: “قد يكون من الصعب للغاية فهم كيفية إصلاح هذه المشكلات وتحديد تلك التكاليف المخفية”.

نموذج الأمن

نماذج الذكاء الاصطناعى نفسها تحتاج إلى تأمين. “الكثير من منصات الذكاء الاصطناعي هذه هي في الحقيقة مجرد صناديق سوداء. يقول ماتي بيرس ، نائب رئيس أمن المعلومات والمخاطر والامتثال لشركة الأمن السيبراني: “كيف يمكننا اختبار هذه الأنواع من الحلول؟” لذلك ، يتعين علينا إنشاء نماذج جديدة كما ننظر ، الأمن المطلق.

المعالجة النموذجية هي أيضا مصدر قلق. من الممكن “… خداع النماذج لإعطاء المعلومات التي لا ينبغي عليهمها ، الكشف عن البيانات الحساسة … [getting] النموذج لفعل شيء ما [its] يقول سعدي: “ليس من المفترض بالضرورة فعل ذلك”.

ما هي الأدوات والعمليات التي تحتاجها المؤسسة للاستثمار فيها لمنع حدوث ذلك؟

الظل الذكاء الاصطناعي

AI متاح بسهولة للموظفين ، وقد لا يعرف قادة المؤسسات الأدوات المستخدمة بالفعل في جميع أنحاء مؤسستهم. الظل ليس تحديًا جديدًا ؛ الظل الذكاء الاصطناعى ببساطة يركز عليه.

متعلق ب:وتأتي موجة المد والجزر من سياسة ترامب للمساحة التقنية

إذا كان الموظفون يقومون بتغذية بيانات المؤسسات إلى مختلف أدوات AI غير معروفة ، فإن خطر التعرض يزيد. يمكن أن يكون التعرف على الانتهاكات التي تتضمن بيانات الظل أكثر صعوبة في تحديدها واحتوائها ، مما يؤدي في النهاية إلى مزيد من التكلفة. التكلفة التي تنطوي على بيانات الظل تكلفة في المتوسط 5.27 مليون دولار، وفقا ل IBM.

تدريب الموظفين

في أي وقت تقدم المؤسسة تقنية جديدة ، تأتي مع منحنى التعلم. هل يفهم الموظفون بناء قدرات منظمة العفو الدولية الآثار المترتبة على الأمن؟

“إذا كنت تفكر في الأشخاص الذين يقومون ببناء نماذج الذكاء الاصطناعى ، فهم علماء بيانات. هم باحثون. خبرتهم ليست بالضرورة الأمن “.

إنهم بحاجة إلى الوقت والموارد لتعلم كيفية تأمين نماذج الذكاء الاصطناعى. تحتاج المؤسسات أيضًا إلى الاستثمار في التعليم للمستخدمين النهائيين. كيف يمكنهم استخدام أدوات الذكاء الاصطناعى مع وضع الأمن في الاعتبار؟ يقول جيغليو: “لا يمكنك تأمين شيء ما إذا كنت لا تفهم كيف يعمل”.

يحتاج تعليم الموظفين أيضًا إلى معالجة قدرات الهجوم الجديدة التي تقدمها AI للجهات الفاعلة للتهديد. يقول بيرس: “يجب أن تبدأ برامج التوعية الخاصة بنا في التركيز حقًا على حقيقة أن المهاجمين يمكنهم الآن انتحال شخصية الناس”. “لدينا مزيفات عميقة مخيفة حقًا ويمكن القيام بها على مكالمات الفيديو. نحتاج إلى التأكد من أن موظفينا ومنظماتنا مستعدون لذلك. ”

متعلق ب:ما هو الجديد (والمثير للقلق) في الأمن الكمومي؟

الحوكمة والامتثال

يحتاج قادة المؤسسات إلى حوكمة وسياسات قوية لتقليل مخاطر العواقب المحتملة لاستخدام الذكاء الاصطناعي: التعرض للبيانات ، وظل الذكاء الاصطناعي ، والتلاعب النموذجي ، والهجمات التي تغذيها الذكاء الاصطناعي ، ولفات السلامة ، والتمييز النموذجي.

يقول سعيد: “على الرغم من عدم وجود لوائح مفصلة بعد حول كيفية إثبات أن يثبتوا مدققيك في امتثالك حول عناصر التحكم في الأمان التي لديك حول البيانات أو نماذج الذكاء الاصطناعي ، فإننا نعلم أن ذلك سيأتي”. “هذا سوف يدفع الإنفاق.”

التأمين السيبراني

يقدم Genai قدرات أمنية جديدة ومخاطر للمؤسسات ، مما قد يعني التغييرات في مساحة التأمين على الإنترنت. هل يمكن للأدوات الدفاعية المناسبة بالفعل تقليل ملف تعريف المخاطر والمؤسسات للمؤسسة؟ هل يمكن أن تزيد التهديدات الأكثر تطوراً من تكاليف التأمين؟

يقول جيغليو: “قد يكون من المبكر بعض الشيء … لفهم الآثار الفعلية ل Genai على ملف تعريف مخاطر التأمين”. قد يكون ذلك مبكرًا ، لكن تكاليف التأمين جزء مهم من محادثة تكاليف الأمن.

بناء ميزانية

ستكون تكلفة الذكاء الاصطناعي واحتياجاتها الأمنية محادثة مستمرة لقادة المؤسسات.

“لا يزال في وقت مبكر جدًا من الدورة ، بحيث تحاول معظم المنظمات الأمنية الالتفاف على ما يحتاجون إلى حمايته ، ما هو مختلف بالفعل. ماذا تفعل [they] بالفعل في مكان يمكن الاستفادة منه؟ ” يقول سعيد.

من هو جزء من هذه المحادثات المتطورة؟ وبطبيعة الحال ، تتمتع CISO بدور رائد في تحديد أدوات التحكم في الأمان المطبقة على أدوات AI للمؤسسة ، ولكن بالنظر إلى انتشار الذكاء الاصطناعى المتزايد من الذكاء الاصطناعي ، فإن نهج أصحاب المصلحة المتعددة ضروري. غالبًا ما يتمتع قادة C-Suite الآخرون والفريق القانوني وفريق الامتثال بصوت. ترى Saeedi لجان متعددة الوظائف تتشكل لتقييم مخاطر الذكاء الاصطناعي والتنفيذ والحوكمة والميزنة.

نظرًا لأن هذه الفرق داخل المؤسسات تبدأ في لف رؤوسها حول العديد من تكاليف أمان الذكاء الاصطناعي ، يجب أن تضم المحادثة بائعي الذكاء الاصطناعي.

“الجزء الرئيسي حقًا لأي منظمة أمان أو تكنولوجيا المعلومات ، متى [we’re] إن التحدث مع البائع هو أن نفهم ، “سنستخدم منصة الذكاء الاصطناعى الخاصة بك ولكن ماذا ستفعل ببياناتنا؟”

هل سيستخدم هذا البائع بيانات المؤسسة للتدريب على النماذج؟ كيف يتم تأمين بيانات هذا المؤسسة؟ كيف يعالج بائع AI المخاطر الأمنية المحتملة المرتبطة بتنفيذ أدائه؟

بائعو الذكاء الاصطناعى مستعدون بشكل متزايد لإجراء هذه المحادثات الأمنية مع عملائهم. يقول Giglio: “اللاعبون الرئيسيون مثل Microsoft و Google … بدأوا في القيادة مع هذه الإجابات الأمنية في الملعب بدلاً من قدرات Genai فقط لأنهم يعرفون أنها ستأتي”.

تتميز محادثة الميزانية لـ AI بمجموعة كبيرة من الحرب: الابتكار مقابل الأمان. تخصيص هذه الدولارات ليس بالأمر السهل ، وهو مبكر بما فيه الكفاية في عملية التنفيذ أن هناك مجالًا كبيرًا للأخطاء. ولكن هناك أطر عمل جديدة مصممة لمساعدة المؤسسات على فهم مخاطرها ، مثل OWASP أعلى 10 لتطبيقات نموذج اللغة الكبيرة و إطار إدارة مخاطر الذكاء الاصطناعي من المعهد الوطني للمعايير والتكنولوجيا (NIST). تساعد صورة أكثر وضوحًا للمخاطر قادة المؤسسات على تحديد المكان الذي يحتاجه الدولارات.





Source link

زر الذهاب إلى الأعلى