الأمن السيبراني

البودكاست: RSA 2025 للتصدي مع الامتثال للنيابة ، والولايات المتحدة والاتحاد الأوروبي لائحة الاتحاد الأوروبي


في هذا البودكاست ، نتحدث إلى Mathieu Gorge ، الرئيس التنفيذي لشركة Vigitrust ، حول التأثير المستمر للذكاء الاصطناعي (AI) على البيانات ، التخزين والامتثال لمراقبة المعلومات. يناقش Gorge الآثار المترتبة على البيانات وحجمها وصعوبات تتبع المدخلات والمخرجات من معالجة الذكاء الاصطناعيوالحاجة إلى مواكبة القانون والتنظيم.

يلقي الخانق أيضًا بعينه على الآثار المحتملة لـ الإدارة الجديدة في الولايات المتحدة والنهج المتطور للاتحاد الأوروبي (EU) للبيانات في الذكاء الاصطناعي.

ما الذي تعتقد أنه سيكون الموضوعات الرئيسية التي تؤثر على الامتثال وتخزين البيانات ، والنسخ الاحتياطي ، وما إلى ذلك ، في حدث RSA لهذا العام؟

أتطلع دائمًا إلى الذهاب إلى RSA للتعرف على التقنيات الجديدة والحصول على إصبعي على النبض فيما يتعلق بما يحدث في التخزين والامتثال ، وأي مواضيع أمان وامتثال عبر الإنترنت. هذا العام ، يبدو أننا سنرى الكثير من العناصر حول تقنية الذكاء الاصطناعى ، ولكن أمان الذكاء الاصطناعي نفسه ، بدلاً من التقنيات التي تدعم الذكاء الاصطناعي.

هناك الكثير من الحديث عن Quantum وما بعد الربع أيضًا ، لذلك سيكون من المثير للاهتمام معرفة ما يحدث هناك.

ومن منظور التخزين ، نرى بعض التغييرات بسبب الإدارة الجديدة في الولايات المتحدة ، وما يتم القيام به في الاتحاد الأوروبي مع الاتحاد الأوروبي يعمل على الذكاء الاصطناعي هذا يؤثر على تصنيف البيانات وتخزين البيانات.

سيكون من المثير للاهتمام أن نرى كل هذا يجتمع في RSA.



أعتقد أن لدينا بعض المحادثات المثيرة للاهتمام للغاية ، وأتوقع أن يخرج بعض البائعين الجدد من الغابة ، إذا جاز التعبير.

الحفر إلى بعض الجوانب التي ذكرتها هناك ، ما رأيك في المجالات الرئيسية التي انتقلت فيها الذكاء الاصطناعى في العام الماضي من حيث كيفية تأثيرها على الامتثال للمنظمات؟

وجهة نظري هي أن الذكاء الاصطناعي كانت الكلمة الطنانة العام الماضي. يحتاج الجميع إلى النظر في الذكاء الاصطناعي لمحاولة فهم كيفية تحسين عملياتهم ، وتحسين كيفية استخدامهم للبيانات ، وما إلى ذلك.

بعد مرور عام ، نرى أن الكثير من المنظمات قد نفذت نسخها الخاصة من ChatGPT ، على سبيل المثال ، وقد استثمر بعضها في منصات الذكاء الاصطناعى الخاصة بهم حتى يتمكنوا من التحكم فيها بشكل أفضل قليلاً.

وهكذا ، نشهد تبني الذكاء الاصطناعي – مع تذكر أن الذكاء الاصطناعى ليس جديدًا ، لقد كان هنا لسنوات – لكن التبني يلتقط حقًا في الوقت الحالي.

ما نراه في السوق هو الأشخاص الذين يبحثون عنه: “ما نوع البيانات التي يمكنني استخدامها من أجل الذكاء الاصطناعي؟ كيف يؤثر ذلك على تصنيف البيانات الخاص بي ، وحماية البيانات الخاصة بي ، وحوكمة البيانات؟”

نرى أيضًا عددًا من الجمعيات الأمنية التي تبدأ مجموعات عمل حوكمة الذكاء الاصطناعي. في الواقع ، في Vigitrust ، مع المجلس الاستشاري Global Vigitrust ، لدينا أيضًا مجموعة عمل لحوكمة الذكاء الاصطناعى حيث نحاول تعيين جميع اللوائح التي تخرج التي تحكم الذكاء الاصطناعي ، سواء كانت مدفوعة ببائعين أو جمعيات التكنولوجيا أو حتى الحكومات.

سيكون من المثير للاهتمام أن نرى مقدار حوكمة الذكاء الاصطناعي المغطاة في RSA. إذا كنت ترغب في القيام بحكم الذكاء الاصطناعي ، فأنت بحاجة إلى معرفة نوع البيانات التي تديرها ، وسنعود إلى تصنيف البيانات وحماية البيانات.

المشكلة الأخرى مع الذكاء الاصطناعي هي أنها تخلق الكثير من البيانات الجديدة ، لذلك لدينا انفجار البيانات هذا. أين سنقوم بتخزينه؟ كيف سنقوم بتخزينها؟ وما مدى أمان هذا التخزين؟ ثم أخيرًا ، هل سيسمح لي ذلك بإظهار الامتثال للوائح والأطر المعمول بها؟ سيكون من المثير للاهتمام أن نفهم ما يخرج من RSA على تلك الجبهة.

ما رأيك هي آثار الإدارة الجديدة في الولايات المتحدة على الامتثال والتخزين والنسخ الاحتياطي ، وما إلى ذلك؟

قالت الإدارة الجديدة في الولايات المتحدة ، منذ البداية ، إنها ستستثمر في الذكاء الاصطناعي وأنها رأت منظمة العفو الدولية فرصة عظيمة للولايات المتحدة. وفيما يتعلق بنشر كل ذلك ، نعلم أن أطر الحوكمة الموجودة بالفعل سيتم تطبيقها.

نحن نرى منظمات مثل NIST تطور المزيد من أطر منظمة العفو الدولية المتعمقة. نرى أيضًا تحالف الأمن السحابي وهو يتحرك نحو أطر حوكمة الذكاء الاصطناعى الخاصة بهم. لدينا حتى شوهدت المدن التي تطور أطر منظمة العفو الدولية الخاصة بها للمدن الذكية وهلم جرا. أفكر في مدينة بوسطن في الوقت الحالي ، لسبب ما.

وهكذا ، إذا كان لديك حكومة تدفع المنظمات لاستخدام الذكاء الاصطناعي ، فسوف يريدون الحصول على بعض الحكم على ذلك. وسيكون من المثير للاهتمام أن نرى إلى أي مدى يذهبون. هل سيستجيبون بما يعادل قانون الاتحاد الأوروبي منظمة العفو الدولية؟ من المحتمل ، لأنه إذا نظرت إلى الناتج المحلي الإجمالي [the General Data Protection Regulation] في أوروبا ، بعد بضع سنوات ، كان لدينا CCPA [the California Consumer Privacy Act] ولدينا بعض لوائح الدولة في هذه المرحلة – أعتقد أن 11 ولاية في الولايات المتحدة لديها شيء مشابه للناتج المحلي الإجمالي.

لذلك ، من المحتمل جدًا أن يتبع هذا. لن يحدث ذلك بين عشية وضحاها ، لكنني أعتقد أن بعض الإعلانات الإضافية ستصدر في عام 2025 من قبل الإدارة الحالية.

ما هو الأحدث مع الاتحاد الأوروبي والامتثال؟ خاصة مع الإشارة إلى أحدث التطورات حول الذكاء الاصطناعي ، إلخ؟

أنت تعلم أنه أمر مضحك ، في الاتحاد الأوروبي ، يُنظر إلى الذكاء الاصطناعى على أنه تهديد بقدر ما يُنظر إليه على أنه فرصة ، أكثر بكثير من الولايات المتحدة ، وربما لأن شهية المخاطر أقل وضوحًا في أوروبا.

نرى كل دولة عضو تبحث في لائحة الذكاء الاصطناعى الخاصة بها بالإضافة إلى إطار الاتحاد الأوروبي. نحن نبحث أيضًا في كيفية دمج الذكاء الاصطناعي مع الناتج المحلي الإجمالي. وبعبارة أخرى ، إذا قمت بنشر حلول الذكاء الاصطناعي ، فأنت تغير تمامًا من حوكمة البيانات.

ينتهي بك الأمر إلى وجود بيانات تتم إدارتها بشكل أساسي من قبل نظام بدلاً من إدارتها من قبل أشخاص مختلفين. لذا فإن مفهوم وحدة تحكم البيانات ، والذي هو المسؤول حقًا عن البيانات ، يصبح موضع استجواب مرة أخرى.

أعتقد أنه من المثير للاهتمام أن نرى مختلف الحكومات التي تنظر إليها ، “هل يمكننا حقًا نشر الذكاء الاصطناعي بطريقة لا تضعنا في إخراج الناتج المحلي الإجمالي؟”

أعود إلى جانبين رئيسيين – تصنيف البيانات وتخزين البيانات.

كما تعلمون ، مع الذكاء الاصطناعي ، لديك هذا السؤال من التحيز على البيانات. هل تعامل البيانات بالطريقة الصحيحة؟ هل البيانات التي تضعها – يتم معالجتها بعد ذلك من قبل الذكاء الاصطناعي ، هل تخرج – هل تضعك في أو خارج الامتثال لأطر أخرى مثل الناتج المحلي الإجمالي ، وحتى قانون الاتحاد الأوروبي؟ وأين يجب عليك تخزين هذه البيانات؟ ما نوع الحماية التي يجب أن يكون لديك عليها؟ كيف يمكنك إدارة دورة حياة تلك البيانات ضمن إطار الذكاء الاصطناعي؟ كيف تحمي LLM الخاص بك [large language model]؟ كيف تحمي الخوارزميات التي تستخدمها؟

ثم أخيرًا ، كما تعلمون ، منظمة العفو الدولية كثيفة للغاية للموارد. هذا له أيضًا تأثير على المناخ ، لأنه كلما استخدمت الذكاء الاصطناعي في هذه المرحلة ، زادت السعة التي تحتاجها ، وقدرة المعالجة التي تحتاجها. وهذا له تأثير على أخضره وهلم جرا.

لذلك ، أود أن أحث الناس على النظر إلى نوع البيانات التي يرغبون في استخدامها في الذكاء الاصطناعي ، وإجراء تحليل المخاطر ، ثم انظر إلى التأثير من حيث: أين ستخزن تلك البيانات؟ من الذي سيقوم بتخزينه من أجلك؟ ما مدى أمانها؟ وكيف سيؤثر ذلك على امتثالك ، ليس فقط مع تنظيم الذكاء الاصطناعي ، ولكن أيضًا مع إجمالي الناتج المحلي وغيرها من أطر الخصوصية؟



Source link

زر الذهاب إلى الأعلى