في هذا البودكاست ، نتحدث إلى Mathieu Gorge ، الرئيس التنفيذي لـ vigitrust، حول مخاطر الامتثال التي تشكلها البيانات أثناء معالجة الذكاء الاصطناعي (AI)والتدريب على وجه الخصوص. التحديات الرئيسية هنا هي أنه مع تدريب مجموعات البيانات ، يتم إنشاء مزيد من البيانات ، وقد يكون من الصعب التأكد من أن البيانات متوافقة أيضًا ، خاصة وأنها تتكاثر.
هنا ، يتحدث Gorge عن الحاجة إلى معرفة ما يتم إطعامه في الذكاء الاصطناعي ، وماذا يخرج ، ومكانه ، ومن لديه إمكانية الوصول إليه وكيف يتم تخزينه ، وما إذا كان متوافقًا.
كما أنه يتعامل مع أطر الأمن والامتثال التي يمكن استخدامها والحاجة إلى بناء الامتثال لمنظمة العفو الدولية لثقافة الأمن التنظيمية.
ما هو الأحدث في الذكاء الاصطناعي والامتثال ، مع الإشارة إلى التخزين والنسخ الاحتياطي ، الذي يحتاج مدير المعلومات إلى معرفته؟
لقد رأينا أيضًا بعض الأطر التي تتكيف مع الذكاء الاصطناعي، على سبيل المثال NIST الذي لديه إطار منظمة العفو الدولية. لقد رأينا بعض الجمعيات الأمنية تدفع لمعاييرها الخاصة. أستطيع أن أفكر في تحالف الأمن السحابي ، ولكن أيضًا مجموعات العمل من عيسى ، من Isaca ، جميعها توفر التوجيه.
أعتقد أن ما نحتاج إلى مراعاته هو أننا على الأرجح سنرى المزيد من التنظيم المتعلق بالنيابة. سيكون بعضها وطنيًا ، وبعضها سيكون فيدرالية ، وبعضها سيكون دوليًا ، يشبه إلى حد ما ما رأيناه بخصوصية. ومن المهم إجراء مقارنة بين تطور معايير الأمن السيبراني ومعايير الذكاء الاصطناعي ومعايير الحوكمة.
في البداية ، منذ حوالي 25 عامًا ، كان هناك حوالي 100 معايير حول أمان الشبكة وأمن تكنولوجيا المعلومات وأمن البيانات. وفي الوقت الحاضر ، نقوم فقط بالاتصال إلى حوالي خمسة أو ستة ، مثل HIPAA و PCI و NIST و ISO و CIS وما إلى ذلك. آمل أن نفعل الشيء نفسه مع الذكاء الاصطناعي ، ولكن بطريقة أسرع ، حتى نتمكن من التركيز على إدارة عمليات نشر الذكاء الاصطناعى من تصنيف البيانات وخصوصية البيانات ومنظور التخزين.
إذا نظرت إلى الأساسيات ، ما هي حوكمة الذكاء الاصطناعي حقا؟ حوكمة الذكاء الاصطناعى كما هو منظم في الولايات المتحدة ، فإن الاتحاد الأوروبي والبلدان الأخرى يدور حول القول: “حسنًا ، لدينا هذه الطريقة الجديدة لمعالجة البيانات. لذا ، نحتاج إلى فهم من أين تأتي البيانات. هل لدينا سلطة استخدام هذه البيانات بالفعل ووضعها في نظام AI لمعالجتها لأي غرض من تعامل معها؟”
تأتي البيانات في شكل معين.
[Questions include:]
هل يخرج [of AI processing] في نوع مختلف من نموذج البيانات ، ملف البيانات أو أيا كان؟
هل هذا يخرجنا عن الامتثال؟
هل هذا تسهيل الامتثال؟
هل لدينا ضمانات حول من الذي يصل إلى البيانات؟
هل لدينا ضمانات حول كيفية تخزين هذه البيانات؟
كم من الوقت نحتاج إلى الاحتفاظ به؟
كم من الوقت سنحتاج إلى الإبلاغ عن تلك البيانات ، اعتمادًا على المكان الذي نقيم فيه؟
عندما نقوم بتخزين هذه البيانات ، أين من المفترض أن يتم تخزينه؟
لذا ، فإن المشكلة مع الذكاء الاصطناعي هي أننا أثناء نشر المزيد من أنظمة الذكاء الاصطناعي ، نحن في الأساس اضرب البيانات أكثر بكثير مما اعتدنا عليه. وهكذا ، نقوم بإنشاء بيانات أكثر بكثير مما اعتدنا عليه ، ويجب تخزين هذه البيانات في مكان ما.
ويجب تخزينها بطريقة لا تخرجك عن الامتثال. لذا ، فأنت بحاجة إلى مشاهدة نظامك الإيكولوجي لمنظمة العفو الدولية وتنظيم كيفية ظهور البيانات ، وكيف تخرج ، ومن الذي يمكنه الوصول إليه وأين تقوم بتخزينه.
كيف ينبغي أن يتعامل CIO مع وظيفة ضمان الامتثال لعمليات الذكاء الاصطناعي في منظمتهم ، بالنظر إلى النطاق المحتمل للتعقيد؟
أعتقد أن دور CIO يجب أن يكون فهم نوع المعلومات التي تدخل في الذكاء الاصطناعي. في نهاية اليوم ، يكون كبير موظفي المعلومات مسؤولاً عن إدارة المعلومات التي تدخل في الأنظمة ، التي تخرج ، والتي يمكن الوصول إليها من قبل أطراف ثالثة ، وكيف يمكن الوصول إليها وما إلى ذلك. وهكذا ، أوصي بشدة أن يعمل أي مدير مائي بالتزامن مع منظمات المجتمع المدني أو فريق الأمن الخاص بهم وينظر إلى تنظيم وسياسة الذكاء الاصطناعي العالمي.
وأوصي بشدة بالنظر إلى IAPP ، الرابطة الدولية لمهنيي الخصوصية. يحتوي موقع الويب الخاص بهم على قانون من الذكاء الاصطناعي والسياسات يمكن أن يسمح لك بفهم الأطر المختلفة ومتطلباتها من حيث تصنيف البيانات ونشر البيانات وتخزينها ومتطلبات الامتثال.
إذا كنت تدفع حلول الذكاء الاصطناعي ونشر الذكاء الاصطناعي ، فأنت بحاجة إلى دفع ثقافة التبني لتلك الأنظمة ، ولكن تحتاج أيضًا إلى دفع ثقافة إدارة البيانات وإدارة المعلومات والأمن مع ذلك. خلاف ذلك ، سوف تنطلق من الامتثال
Mathieu Gorge ، Vigitrust
الشيء التالي الذي يجب القيام به هو التأكد من أنه عندما تقوم بالتدريب لموظفيك ، حيث يتم طرح المزيد والمزيد من الأنظمة المستندة إلى الذكاء الاصطناعي والتي تسمح لهم بأن تكون أكثر كفاءة وإنتاجية ، فإنهم يفهمون أيضًا المخاطر مع الذكاء الاصطناعي.
بنفس الطريقة التي ندرب بها على البريد الإلكتروني ، للشبكات الاجتماعية ، لأشياء أخرى ، يجب أن يدفع مدير المعلومات ، على مستوى اللوحة ، مفهوم دمج الذكاء الاصطناعي ، ليس فقط في ثقافة الأعمال في المنظمة ، ولكن أيضًا في ثقافة الأمن والمعلومات وإدارة البيانات في النظام.
بمعنى آخر ، إذا كنت تدفع حلول الذكاء الاصطناعي ونشر الذكاء الاصطناعي ، فأنت بحاجة إلى دفع ثقافة التبني لتلك الأنظمة ، ولكن تحتاج أيضًا إلى دفع ثقافة إدارة البيانات وإدارة المعلومات والأمن مع ذلك. خلاف ذلك ، سوف تنطلق من الامتثال.
مرة أخرى ، انظر إلى نظامك الإيكولوجي ، وكيف تنوي استخدام الذكاء الاصطناعي لأسباب تجارية مختلفة عبر أنظمة متعددة ، وانظر إلى متتبع سياسة الذكاء الاصطناعي في مكان ما ، ثم حاول تطبيق ذلك على سياستك بحيث يصبح بسرعة جزءًا من الحمض النووي لمؤسستك.
لأن الذكاء الاصطناعى سيستمر في نشره. سيكون هناك المزيد والمزيد من الحلول المستندة إلى الذكاء الاصطناعى والتي ستفيد العمل.
السؤال هو ، هل سيفيد إدارة البيانات الخاصة بك؟ هل سيجعلها أكثر تعقيدًا؟ من المحتمل ، إذا لم تقم بإدارة ذلك ، ولكن إذا كنت تستخدم أطر عمل حوكمة جيدة منظمة العفو الدولية ، وإذا حاولت تمييزها إلى ما يهم مؤسستك ، فأنت بعد ذلك إلى استراتيجية جيدة لنشر الذكاء الاصطناعي والامتثال لمنظمة العفو الدولية.