الأمن السيبراني

البودكاست: ما هو تأثير الذكاء الاصطناعي على التخزين والامتثال؟


في هذا البودكاست، نلقي نظرة على تأثير ظهور الذكاء الاصطناعي (AI) على التخزين والامتثال مع ماتيو جورج، الرئيس التنفيذي لشركة فيجيترست.

نحن نتحدث عن حالة اللعب أطر الامتثال للذكاء الاصطناعي، وكيفية التعامل مع عدم نضج الحوكمة في الميدان.

يتحدث جورج أيضًا عن الكيفية التي يمكن بها للمؤسسات التعرف على حدود المشهد الحالي مع التحكم في الوضع الذي لا يزال يتطور.

أنتوني أدشيد: ما هي التأثيرات الرئيسية للذكاء الاصطناعي من حيث القانون والتنظيم في مجال تكنولوجيا المعلومات؟

ماتيو جورج: أعتقد أنه من المهم أن نفهم أن الذكاء الاصطناعي ليس جديدًا. لقد كان موجودًا منذ فترة ولا ينبغي لنا أن نخلط بين التعلم الآلي، أو التعلم الآلي الذكي، والذكاء الاصطناعي المناسب.

الحقيقة هي أننا سمعنا الكثير عنها ChatGPT وما شابه ذلك، لكن الذكاء الاصطناعي أكثر من ذلك بكثير.

يوجد حاليًا، اعتمادًا على الطريقة التي تنظر بها إلى الأمر، من 35 إلى 40 اللوائح والمعايير المتعلقة بإدارة الذكاء الاصطناعي. وهو أمر مثير للاهتمام نوعًا ما لأنه يذكرني بالأمن السيبراني منذ حوالي 25 عامًا، حيث كانت الصناعة تحاول التنظيم الذاتي وكان معظم البائعين الكبار يبتكرون إطار الأمن السيبراني الخاص بهم.



ونحن نرى الشيء نفسه مع الذكاء الاصطناعي. نحن نعلم، على سبيل المثال، أن Cloud Security Alliance توصل إلى مبادرته الخاصة، IAPP [International Association of Privacy Professionals] لقد توصلوا إلى ورقة عمل خاصة بهم حول الذكاء الاصطناعي، وهي في الواقع جيدة جدًا لأنها توثق 60 موضوعًا رئيسيًا تحتاج إلى إلقاء نظرة عليها حول الذكاء الاصطناعي بما يتجاوز التأثير المحتمل لـ ChatGPT، وما إلى ذلك.

نحن نرى أيضًا الاتحاد الأوروبي يطبق قانون خصوصية الذكاء الاصطناعي وبعض الولايات في الولايات المتحدة تحاول القيام بذلك، لذا فالتاريخ يعيد نفسه. وإذا كان الأمر مثل الأمن السيبراني، فإن ما سيحدث هو أنه خلال الخمس إلى العشر سنوات القادمة، ستشهد على الأرجح أربعة إلى خمسة أطر عمل رئيسية تخرج من الخشب والتي ستصبح أطر العمل الفعلية، وكل شيء آخر سيكون مرتبطًا بذلك .

الحقيقة هي أنه مع الذكاء الاصطناعي لديك مجموعة من البيانات الواردة ومجموعة من البيانات التي يتم التلاعب بها بشكل أساسي بواسطة الذكاء الاصطناعي وتنتج مجموعة أخرى. قد تكون هذه المجموعة دقيقة، وقد لا تكون دقيقة، وقد تكون صالحة للاستخدام أو مفيدة أو لا.

“لو [AI regulation follows the example of] الأمن السيبراني، في السنوات الخمس إلى العشر القادمة، ستشهد على الأرجح أربعة إلى خمسة أطر عمل رئيسية تخرج من الخشب والتي ستصبح أطر العمل الفعلية، وكل شيء آخر سيكون مرتبطًا بذلك.

ماتيو جورج، فيجيترست

إحدى المشكلات هي أننا لا نملك حقًا الحوكمة الصحيحة في الوقت الحالي، لذلك نشهد أيضًا الإعلان عن الكثير من الدورات التدريبية الجديدة لحوكمة الذكاء الاصطناعي في الصناعة. وعلى الرغم من أن هذا أمر جدير بالثناء، إلا أننا بحاجة إلى الاتفاق على ماهية الحوكمة الجيدة للذكاء الاصطناعي، وتحديدًا فيما يتعلق بالبيانات التي يقوم بإنشائها، وأين تنتهي من حيث التخزين، والتأثير على الامتثال والأمن.

Adshead: كيف سيؤثر ذلك على تخزين المؤسسة والنسخ الاحتياطي وحماية البيانات؟

المضيق: في الوقت الحالي، عندما تنظر إلى التخزين التقليدي، بشكل عام فإنك تنظر إلى بيئتك ونظامك البيئي وبياناتك، وتصنف تلك البيانات وتضع قيمة لها. واعتمادًا على هذه القيمة والتأثير المحتمل، يمكنك توفير الأمان المناسب وتحديد المدة الزمنية التي تحتاجها للاحتفاظ بالبيانات وكيفية الاحتفاظ بها وحذفها.

ولكن، إذا نظرت إلى CRM [customer relationship management service]، إذا قمت بإدخال بيانات خاطئة، فستظهر البيانات الخاطئة، وهي مجموعة واحدة من البيانات. لذا، لكي أكون صريحًا، قمامة في الداخل، قمامة في الخارج.

مع الذكاء الاصطناعي، يكون الأمر أكثر تعقيدًا من ذلك بكثير، لذلك قد يكون لديك بيانات غير صحيحة، ولكن بدلاً من مجموعة بيانات واحدة قد تكون غير صالحة، قد يكون هناك الكثير من مجموعات البيانات المختلفة وقد تكون دقيقة أو لا.

إذا نظرت إلى ChatGPT، فهو يشبه إلى حد ما النرجسي. إنه ليس خطأ على الإطلاق، وإذا أعطيته بعض المعلومات ثم قدم معلومات خاطئة ثم قلت، “لا، هذا ليس دقيقًا”، فسيخبرك أن السبب هو أنك لم تقدم له مجموعة البيانات الصحيحة. وبعد ذلك، في مرحلة ما، سيتوقف عن التحدث إليك، لأنه سيكون قد استنفد كل قدرته على الجدال معك، إذا جاز التعبير.

من منظور الامتثال، إذا كنت تستخدم الذكاء الاصطناعي – الذكاء الاصطناعي المعقد أو الذكاء الاصطناعي البسيط مثل ChatGPT – لإنشاء مستند تسويقي، فلا بأس بذلك. ولكن إذا كنت تستخدم هذا للقيام بأمور مالية أو قانونية، فهذا بالتأكيد ليس جيدًا. نحن بحاجة إلى الحوكمة الصحيحة، وإجراء الفحوصات الصحيحة لتقييم تأثير البيانات المستندة إلى الذكاء الاصطناعي.

هذه الأيام الأولى الآن، ولهذا السبب نشهد ظهور الكثير من أطر الحوكمة. بعضها يسير في الاتجاه الصحيح، وبعضها أساسي للغاية، وبعضها معقد للغاية بحيث لا يمكن تنفيذها. نحن بحاجة إلى رؤية ما سيحدث ولكن علينا اتخاذ القرارات بسرعة كبيرة.

نحتاج، على أقل تقدير، لكل مؤسسة مجموعة من مؤشرات الأداء الرئيسية [key performance indicators]. لذا، عندما أنظر إلى البيانات الواردة من الذكاء الاصطناعي، هل أنا سعيد لأنها دقيقة، هل أنا سعيد لأنها لن تجعلني خارج نطاق الامتثال، هل أنا سعيد لأنني أستطيع تخزينها بالطريقة الصحيحة؟ هل أنا سعيد لأنه لن يقوم بتخزين أجزاء من البيانات ولا أعرف إلى أين سيذهب ذلك أو ما يتعين علينا فعله به؟

إنها حالة محاولة العثور على الإدارة الصحيحة والاستخدام الصحيح للذكاء الاصطناعي.

إنها الأيام الأولى، لكنني أحث كل شركة على البدء في النظر في أطر حوكمة الذكاء الاصطناعي الآن حتى لا تخلق وحشًا، إذا جاز التعبير، حيث يكون الوقت قد فات وهناك الكثير من البيانات التي لا يمكنهم التحكم فيها.



Source link

زر الذهاب إلى الأعلى