ما هي أكبر البقع العمياء لمراقبة المعلومات في أمن الذكاء الاصطناعي؟

التوتر بين الابتكار والأمن حكاية قديمة قدم الوقت. يريدون المبدعون وعمليات مديري تقنية المعلومات أن يحرصوا على تقنية جديدة. يريد CISO وقادة الأمن الآخرين اتباع نهج أكثر قياسًا يخفف من المخاطر. مع ظهور الذكاء الاصطناعي في السنوات الأخيرة التي يتم وصفها بانتظام على أنها سباق التسلح ، هناك شعور حقيقي بالإلحاح. لكن هذا المخاطرة بأن القلق الذهني الأمني لا يزال موجودًا.
تسرب البيانات. الظل الذكاء الاصطناعي. الهلوسة. تحيز. التسمم النموذج. الحقن السريع ، المباشر وغير المباشر. هذه مخاطر معروفة مرتبطة باستخدام الذكاء الاصطناعي ، لكن هذا لا يعني أن قادة الأعمال يدركون جميع الطرق التي يمكن أن يظهروا بها داخل منظماتهم وحالات الاستخدام المحددة. والآن يتم إلقاء AI Agentic AI في المزيج.
“المنظمات تتحرك بسرعة كبيرة للغاية أسفل المسار الوكيل ،” أوليفر فريدريشس ، مؤسس ورئيس تنفيذي لـ بانجياالشركة التي توفر الدرابزين الأمني لتطبيقات الذكاء الاصطناعي ، تخبر Information Week. “إنه يشبه بشكل مخيف الإنترنت في التسعينيات عندما كان الأمر يشبه إلى حد ما Wild West ، وكانت الشبكات مفتوحة على مصراعيها. التطبيقات الوكلاء حقًا في معظم الحالات لا تأخذ الأمن على محمل الجد لأنه لا توجد مجموعة راسخة من الدرابزينات الأمنية في مكانها أو متوفرة.”
ما هي بعض المشكلات الأمنية التي قد تتجاهلها المؤسسات لأنها تسارع لفهم قوة حلول الذكاء الاصطناعي؟
الرؤية
كم عدد نماذج الذكاء الاصطناعي التي يتم نشرها في مؤسستك؟ قد لا يكون الإجابة على هذا السؤال سهلة الإجابة كما تعتقد.
يقول إيان سوانسون ، الرئيس التنفيذي ومؤسس مؤسسه: “لا أعتقد أن الناس يفهمون مدى انتشار الذكاء الاصطناعي بالفعل حماية الذكاء الاصطناعي، AI و Machine Learning Security Company. “منظمة العفو الدولية ليست جديدة فقط في العامين الماضيين. AI التوليدي وتدفق نماذج اللغة الكبيرة التي رأيناها خلقت الكثير من الرياح الخلفية ، ولكننا نحتاج أيضًا إلى تقييم حساب لما نشرناه.”
لا تحتاج فقط إلى معرفة النماذج المستخدمة ، بل تحتاج أيضًا إلى رؤية كيفية وصول هذه النماذج إلى القرارات.
يقول فريدريش: “إذا رفضوا ، دعنا نقول مطالبة تأمين بشأن بوليصة التأمين على الحياة ، يجب أن يكون هناك بعض التاريخ لأسباب الامتثال وأيضًا القدرة على تشخيص ما إذا كان هناك خطأ ما”.
إذا كان قادة المؤسسات لا يعرفون ما هي نماذج الذكاء الاصطناعى المستخدمة وكيف تتصرف هذه النماذج ، فلن تتمكن حتى من البدء في تحليل وتخفيف المخاطر الأمنية المرتبطة.
التدقيق
أعطى سوانسون شهادة أمام الكونغرس خلال جلسة استماع عن أمن الذكاء الاصطناعي. انه يقدم استعارة بسيطة: الذكاء الاصطناعى كعكة. هل تأكل شريحة من الكعكة إذا لم تكن تعرف الوصفة والمكونات والخبز؟ كما قد تكون هذه الحلوى اللذيذة ، فإن معظم الناس يقولون لا.
يقول سوانسون: “منظمة العفو الدولية شيء لا يمكنك ، ويجب ألا تستهلك فقط. يجب أن تفهم كيف تم بناؤه. يجب أن تفهم وتتأكد من أنه لا يشمل أشياء ضارة”.
هل تم تأمين نموذج الذكاء الاصطناعي خلال عملية التطوير؟ هل لدى فرق الأمن القدرة على إجراء مراقبة مستمرة؟
ويضيف سوانسون: “من الواضح أن الأمن ليس فحصًا في وقت ما. هذه عملية مستمرة ، وهذه هي العضلات الجديدة التي تبنيها الكثير من المنظمات حاليًا”.
أطراف ثالثة واستخدام البيانات
مخاطر الطرف الثالث هي مصدر قلق دائم لفرق الأمن ، وهذا المخاطرة بالونات جنبا إلى جنب مع الذكاء الاصطناعى. غالبًا ما تحتوي نماذج الذكاء الاصطناعي على مكونات طرف ثالث ، وكل طرف إضافي هو نقطة تعرض محتملة أخرى لبيانات المؤسسة.
يقول هارمان كور ، نائب رئيس منظمة العفو الدولية فيتانيوم، شركة الأمن السيبراني وإدارة النظم.
هل يمكن لأطراف ثالثة الوصول إلى بيانات المؤسسة الخاصة بك؟ هل ينقلون تلك البيانات إلى المناطق التي لا تريدها؟ هل يستخدمون تلك البيانات لتدريب نماذج الذكاء الاصطناعي؟ تحتاج فرق المؤسسات إلى البحث في شروط أي اتفاق يقومون بها لاستخدام نموذج الذكاء الاصطناعي للإجابة على هذه الأسئلة وتحديد كيفية المضي قدمًا ، اعتمادًا على تحمل المخاطر.
المخاطر القانونية
لا يزال المشهد القانوني لمنظمة العفو الدولية ناشئة للغاية. لا تزال اللوائح يتم التفكير فيها ، لكن هذا لا ينفي وجود المخاطر القانونية. هناك بالفعل الكثير من الأمثلة على الدعاوى القضائية والإجراءات الجماعية المقدمة استجابة لاستخدام الذكاء الاصطناعي.
يقول روبرت دبليو تايلور ، من المحامي في Carstens ، Allen & Gourley، مكتب محاماة التكنولوجيا و IP. يمكن لمطوري نماذج الذكاء الاصطناعى وعملائهم أن يجدوا أنفسهم مسؤولين عن النتائج التي تسبب الضرر.
والعديد من المؤسسات تتعرض لهذا النوع من المخاطر. “عندما تفكر الشركات في بناء أو نشر حلول الذكاء الاصطناعي هذه ، فإنها لا تقوم بتقييم شامل للمخاطر القانونية” ، يلاحظ تايلور.
الآن ، فإن التنبؤ بكيفية استقرار الشرعية حول الذكاء الاصطناعي في النهاية ، ومتى سيحدث ذلك ، ليست مهمة سهلة. لا توجد خريطة طريق ، لكن هذا لا يعني أن فرق المؤسسات يجب أن ترفع أيديها الجماعية والاحتيال دون التفكير في الآثار القانونية.
“الأمر كله يتعلق بالتأكد من فهمك على مستوى عميق حيث تكمن كل المخاطر في أي تقنيات تستخدمها ثم تفعل كل ما تستطيع [by] يقول تايلور: “اتباع أفضل الممارسات الممارسة المعقولة حول كيفية تخفيف هذه الأضرار وتوثيق كل شيء”.
مسؤول الذكاء الاصطناعي
تتوفر العديد من الأطر عن استخدام الذكاء الاصطناعى المسؤول اليوم ، ولكن الشيطان في التفاصيل.
“أحد الأشياء التي أعتقد أن الكثير من الشركات تكافح معها ، بما في ذلك عملائي ، هو في الأساس أخذ مبادئ AI المسؤولة وتطبيقها على حالات الاستخدام المحددة” ، يشارك تايلور.
يتعين على فرق المؤسسات القيام بالعمل الأسطوري لتحديد المخاطر الخاصة بحالات استخدامها وكيف يمكنها تطبيق مبادئ AI المسؤولة لتخفيفها.
الأمن مقابل الابتكار
يمكن أن يشعر احتضان الأمن والابتكار بالموازنة على حافة السكين. انزلق في اتجاه واحد وتشعر بقطع المتخلفين في سباق الذكاء الاصطناعي. انزلق في الاتجاه الآخر وقد تواجه لدغة المزالق الأمنية. لكن عدم القيام بأي شيء يضمن أنك ستتأخر.
يقول كور: “لقد رأينا ذلك يشل بعض المنظمات. ليس لديهم أي فكرة عن كيفية إنشاء إطار عمل ليقوله إنه خطر نحن على استعداد لقبوله”.
إن تبني الذكاء الاصطناعي مع عقلية أمنية لا يعني أن المخاطر يمكن تجنبها تمامًا. بالطبع ليس كذلك. يقول فريدريش: “الحقيقة هي أن هذه مساحة سريعة الحركة بحيث تشبه الشرب من هيئة إطفاء”.
يمكن أن تتخذ فرق المؤسسات بعض الخطوات المتعمدة لفهم مخاطر الذكاء الاصطناعى بشكل أفضل لمؤسساتها مع التحرك نحو تحقيق قيمة هذه التكنولوجيا.
إن النظر إلى جميع أدوات الذكاء الاصطناعى المتوفرة في السوق اليوم يشبه كونها في كاكشووب ، لاستخدام استعارة سوانسون. كل واحد يبدو لذيذ أكثر من التالي. لكن يمكن للمؤسسات تضييق عملية اتخاذ القرار من خلال البدء بالبائعين الذين يعرفونه ويثقون به بالفعل. من الأسهل معرفة من أين تأتي تلك الكعكة ومخاطر تناولها.
“من الذي أثق به بالفعل في مؤسستي؟ ما الذي يمكنني الاستفادة من هؤلاء البائعين لجعلني أكثر إنتاجية اليوم؟” يقول كور. “وعمومًا ، ما رأيناه هو مع تلك المنظمات ، وفريقنا القانوني ، وقد أجريت فرق الأمن لدينا بالفعل مراجعات مكثفة. لذلك ، هناك مجرد قطعة تدريجية يجب أن نفعلها.”
استفادة من أطر المخاطر المتوفرة ، مثل إطار إدارة مخاطر الذكاء الاصطناعي من المعهد الوطني للمعايير والتكنولوجيا (NIST).
يقول كور: “ابدأ في معرفة القطع الأكثر أهمية بالنسبة لك وما هو أمر مهم للغاية بالنسبة لك والبدء في وضع كل هذه الأدوات التي تأتي من خلال هذا المرشح”.
اتخاذ هذا النهج يتطلب جهدا متعدد التخصصات. يتم استخدام الذكاء الاصطناعي عبر الشركات بأكملها. ستحدد الفرق المختلفة وفهم المخاطر بطرق مختلفة.
“اسحب فرق الأمان الخاصة بك ، وسحب فرق التطوير الخاصة بك ، وسحب فرق عملك ، والحصول على خط من الرؤية [on] وتوصي سوانسون بأن العملية التي تريد تحسينها والعمل للخلف من ذلك.
تمثل الذكاء الاصطناعي فرصًا مذهلة للمؤسسة ، وقد بدأنا للتو العمل من خلال منحنى التعلم. لكن المخاطر الأمنية ، سواء كنت تراها أم لا ، يجب أن تكون دائمًا جزءًا من المحادثة.
يقول سوانسون: “لا ينبغي أن يكون هناك منظمة العفو الدولية في المؤسسة دون أمان لمنظمة العفو الدولية. يجب أن تكون الذكاء الاصطناعى آمنًا وموثوقًا وآمنًا من أجل تقديم قيمتها”.