الأمن السيبراني

ما هو AI TRiSM، ولماذا حان وقت الاهتمام؟


تعد إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي (AI TRiSM) إطارًا تكنولوجيًا وسياسيًا لإدارة الذكاء الاصطناعي. إنها تكتسب زخمًا في المؤسسات وهي تتصارع مع الأسئلة المتعلقة بكيفية ومتى وأين يتم استخدام الذكاء الاصطناعي على أفضل وجه، مع الحفاظ أيضًا على توافق الذكاء الاصطناعي وموثوقيته.

هذه ليست مهمة سهلة.

تحديات اعتماد الذكاء الاصطناعي

قصير مهارات الذكاء الاصطناعي، تبدأ العديد من المؤسسات رحلات الذكاء الاصطناعي الخاصة بها من خلال الاعتماد على البائعين وشركاء الأعمال الخارجيين لتوفير حلول الذكاء الاصطناعي الجاهزة. تدير هذه الأنظمة عمليات تكنولوجيا المعلومات وقواعد البيانات المالية وقواعد الرعاية الصحية والتنبؤات الجوية وجلسات الدردشة على موقع الويب ووظائف أخرى.

بالنسبة للعديد من الشركات، من غير المرجح أن تتغير استراتيجية الاستعانة بمصادر خارجية للذكاء الاصطناعي، لأنها لا تملك الخبرة الداخلية أو الموارد المالية اللازمة للاستثمار في الذكاء الاصطناعي بمفردها. بالنسبة للشركات الأخرى التي يكون فيها الذكاء الاصطناعي استراتيجيًا وبأسعار معقولة، فإنها تحتاج إلى الثقة في جودة نماذج الذكاء الاصطناعي وبياناتها ونتائجها.

وفي كلتا الحالتين، هناك مسؤولية على الذكاء الاصطناعي. وهذا يعني طرح أسئلة رئيسية: هل الذكاء الاصطناعي جدير بالثقة؟ ما هي مخاطر استخدام الذكاء الاصطناعي في حالة فشله؟ هل الذكاء الاصطناعي آمن؟

الدور المركزي للثقة والمخاطر وإدارة الأمن في الذكاء الاصطناعي

الهدف من AI TRiSM هو وضع حواجز الثقة والمخاطر والأمن اللازمة حول أنظمة الذكاء الاصطناعي حتى تتمكن المؤسسات من التأكد من أن هذه الأنظمة دقيقة وآمنة ومتوافقة.

متعلق ب:الذكاء الاصطناعي التوليدي وبناء مساحة رقمية أكثر جدارة بالثقة

يمكن أن يكون هذا مهمة شاقة، لأنه على الرغم من وجود سنوات عديدة من الخبرة في الحوكمة وأفضل الممارسات للتطبيقات التقليدية وبيانات النظام المنظم لسجلات البيانات، إلا أن هناك القليل من أفضل الممارسات الراسخة عندما يتعلق الأمر بإدارة وتحليل البيانات المنظمة وغير المنظمة للذكاء الاصطناعي، وأثرها. التطبيقات والخوارزميات والتعلم الآلي.

كيف، على سبيل المثال، يمكنك فحص جميع كميات البيانات الواردة من الأوراق البحثية في جميع أنحاء العالم والتي قد يقوم الذكاء الاصطناعي الخاص بك بتحليلها في محاولة لتطوير دواء جديد؟ أو كيف يمكنك التأكد من أنك تقوم بفحص قواعد البيانات لأفضل المرشحين للوظائف إذا كنت تستخدم فقط تاريخ التوظيف السابق لشركتك كمرجع لك؟

دعونا نلقي نظرة فاحصة على إطار عمل AI TRiSM

يعالج AI TRiSM هذه الأسئلة من خلال إطار عمل لإدارة بيانات وأنظمة الذكاء الاصطناعي. ويتضمن هذا الإطار العناصر الأربعة التالية:

إمكانية شرح الذكاء الاصطناعي

إذا كنت تستخدم الذكاء الاصطناعي للحصول على النتائج ثم قم بصياغة تقرير إلى مجلس الإدارة، فهل تشعر بالأمان عندما يسألك شخص ما كيف توصلت إلى استنتاجك وما هي مصادر البيانات التي تم استخدامها؟

إنه سؤال كبير واجه مدرسة الضربات القوية في عام 2018، متى؟ قامت أمازون بإلغاء تنفيذ نظام توظيف داخلي يعمل بالذكاء الاصطناعي التي تفضل الذكور بشكل غير متناسب على المتقدمين للوظائف الإناث.

متعلق ب:إزالة الغموض عن الذكاء الاصطناعي المسؤول لقادة الأعمال

وبعد الفحص الدقيق، أدركت الشركة أن البيانات الوحيدة التي غذتها بنظام الذكاء الاصطناعي كانت من قاعدة بيانات التوظيف الداخلية الخاصة بها. وأظهرت تلك البيانات أنه في السنوات الماضية، قامت الشركة بتعيين عدد أكبر من الذكور مقارنة بالإناث. ونتيجة لذلك، فقدت الشركة مجموعة كبيرة من المتقدمات المؤهلات.

الخطوات التالية لتطبيق إمكانية شرح الذكاء الاصطناعي

لا أحد يرغب في الوقوف أمام مجلس إدارته محاولًا شرح الأخطاء التي ارتكبها الذكاء الاصطناعي. لذا، فإن أفضل الممارسات هي التأكد من أن لديك قاعدة بيانات واسعة بما يكفي للذكاء الاصطناعي الخاص بك قبل تشغيله. ومن المهم بنفس القدر أن تقوم بمراجعة استعلامات وخوارزميات الذكاء الاصطناعي الخاصة بك للتأكد من أنها شاملة وغير متحيزة قدر الإمكان.

الاختبار النهائي هو داخل نفسك. إذا سُئلت، هل يمكنك أن تشرح لنفسك بثقة كيف استنتج الذكاء الاصطناعي استنتاجاته، وما هي البيانات التي استخدمها للوصول إلى النتائج؟

عمليات نموذج الذكاء الاصطناعي

بعد النشر، يجب الحفاظ على الذكاء الاصطناعي. والتحدي الذي يواجه الشركات هو كيفية الحفاظ عليه.

باستخدام أنظمة السجلات، يمكنك إجراء الصيانة من خلال مراقبة الأداء بشكل مستمر والضبط الدقيق حسب الحاجة، ومن خلال حل أخطاء البرامج عند حدوثها. هذا النوع من الصيانة له تاريخ تشغيلي يزيد عن 70 عامًا، لذلك ليس هناك أي ارتباك حول كيفية القيام به.

متعلق ب:استثمارات الذكاء الاصطناعي التي لا ينبغي لنا أن نغفلها

في المقابل، تمتلك أنظمة الذكاء الاصطناعي القليل من ممارسات الصيانة الراسخة. عندما يتم نشر الذكاء الاصطناعي لأول مرة، يتم التحقق منه مقابل ما قد يستنتجه خبراء الموضوع في هذا المجال، ويجب أن يتفق مع ما يستنتجه هؤلاء الخبراء بنسبة 95٪ من الوقت.

مع مرور الوقت، تتغير الظروف التجارية والبيئية والسياسية والسوقية. يجب أن يتغير تطبيق الذكاء الاصطناعي (واستنتاجاته) معهم. هذا هو المكان الذي تأتي فيه صيانة الذكاء الاصطناعي.

الخطوات التالية لتنفيذ صيانة الذكاء الاصطناعي

إذا انخفضت دقة نتائج نظام الذكاء الاصطناعي فجأة من 95% إلى 85%، فقد حان الوقت لفريق متعدد التخصصات من خبراء موضوعات المستخدمين وعلوم تكنولوجيا المعلومات/البيانات للالتقاء معًا لمعرفة ما إذا كانت مصادر البيانات والخوارزميات والتعلم الآلي وما إلى ذلك. ، يجب ضبطها بدقة حتى تتمكن من إعادة التوافق مع الأعمال والعودة إلى مستوى الدقة الذي تتوقعه المؤسسة.

إذا لم يتم إجراء صيانة الذكاء الاصطناعي بانتظام، فستفقد نتائج نظام الذكاء الاصطناعي دقتها. وهذا يزيد من مخاطر الشركة لأن النتائج التي تعتمد عليها قرارات الإدارة قد تكون خاطئة. تم تصميم دمج إطار عمل AI TRiSM للتحقق من ذلك.

أمن الذكاء الاصطناعي

يجد المتسللون طرقًا جديدة لمهاجمة أنظمة الذكاء الاصطناعي مع نمو عمليات النشر.

خط واحد للهجوم هو تسمم البيانات. يحدث هذا عندما يتمكن أحد المتسللين من الوصول إلى بيانات تدريب نموذج الذكاء الاصطناعي ويقوم بإتلاف البيانات، وبالتالي ينتج النظام نتائج خاطئة.

في مجال أمن الذكاء الاصطناعي، تفترض AI TRiSM أن أساليب تكنولوجيا المعلومات التقليدية إنفاذ أمن الذكاء الاصطناعي موجودة بالفعل. ويتضمن ذلك وضع معايير مصادقة عالية لمستخدمي الذكاء الاصطناعي تشمل التفويض متعدد العوامل، وبناء شبكات الثقة المعدومة وحدود قطاعات الشبكة حول أنظمة الذكاء الاصطناعي التي تزيد من تقييد الوصول، وتأمين الأجهزة وأنظمة التشغيل والتطبيقات. ومع ذلك، هناك حاجة أيضًا إلى مستوى ثانٍ من تطبيق أمان الذكاء الاصطناعي، والذي يعالجه AI TRISM.

الخطوات التالية لتنفيذ صيانة الذكاء الاصطناعي

تتضمن الجبهة الأمنية الثانية فحص جميع مزودي مصادر البيانات لمشاريع الذكاء الاصطناعي. الهدف هو التأكد من أن كل مزود يفي بمعايير حوكمة وأمان المؤسسة أو يتجاوزها. يجب أن يستخدم قسم تكنولوجيا المعلومات أدوات إضافية لإعداد البيانات للتأكد من أن جميع البيانات المدخلة في مستودع بيانات الذكاء الاصطناعي قد تم تنظيفها وتنسيقها وإعدادها بشكل صحيح للاستخدام.

خصوصية الذكاء الاصطناعي

تمتلك المؤسسات سياسات خصوصية البيانات الخاصة بها، ولكن مع الذكاء الاصطناعي، من الضروري أيضًا التأكد من أن وسطاء البيانات الذين تشتري البيانات منهم لديهم سياسات خصوصية بيانات مماثلة. يعد التركيز على هذا الأمر أمرًا أساسيًا لإطار عمل AI TRiSM.

على سبيل المثال، أراد أحد مختبرات الرعاية الصحية الكبيرة دراسة تأثير علاجات السرطان على مجموعة متنوعة من المرضى من أوروبا. وتعاقدت مع عدد من المستشفيات والعيادات للحصول على بيانات المرضى. كان الشرط الذي تم وضعه لكل مزود بيانات هو أن جميع بيانات صحة المريض يجب أن تكون مجهولة المصدر بحيث يتم حماية خصوصية المريض.

حصل المختبر على البيانات المتنوعة من المستشفيات والعيادات التي طلبها، ويمكن تحليل البيانات حسب الموقع الجغرافي ونوع السرطان والعمر والجنس. ومع ذلك، لم تكن هناك معرفات فردية للمريض موجودة في البيانات. كان لدى جميع موفري البيانات سجلات مرضى مجهولة المصدر لحماية خصوصية المرضى.

مستقبل الذكاء الاصطناعي TRISM

تقول شركة Gartner أنه بحلول عام 2026، ستستخدم 80% من الشركات تقنيات مثل الذكاء الاصطناعي التوليدي، لكن القليل من الشركات قامت بتوقيع عبارة “AI TRiSM” على خرائط الطريق الإستراتيجية لتكنولوجيا المعلومات الخاصة بها.

والخبر السار هو أن العديد من الشركات تنفذ بالفعل الخطوات التي عددتها AI TRiSM. تقوم الشركات بتصميم حالات استخدام منسقة بإحكام حيث يمكن للذكاء الاصطناعي أن يفيد الأعمال. إنهم ينشرون بنشاط إجراءات أمنية مثل شبكات الثقة المعدومة ويقومون بعمل أفضل في فحص وسطاء البيانات من أجل الامتثال للأمان وخصوصية البيانات.

إحدى المجالات المتأخرة هي صيانة نظام الذكاء الاصطناعي وضبطه، ولكن من المرجح أن يحظى هذا بمزيد من الاهتمام مع نشر المزيد من الذكاء الاصطناعي.

في أثناء، يجب على مديري تكنولوجيا المعلومات البدء في التفكير في المستقبل حول الشكل الذي من المحتمل أن تبدو عليه قوائم تدقيق تكنولوجيا المعلومات والقوائم التنظيمية خلال خمس سنوات. يمكنك أن تتوقع أن يأتي المدققون والمنظمون بقوائم مراجعة AI TRiSM، ويجب أن يكون قسم تكنولوجيا المعلومات جاهزًا للتحقق من جميع المربعات.





Source link

زر الذهاب إلى الأعلى