الأمن السيبراني

التحضير لتنظيم الذكاء الاصطناعي: قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي


أي شركة تبيع منتجات أو خدمات في الاتحاد الأوروبي (EU) تستخدم الذكاء الاصطناعي (AI) يجب أن تمتثل ل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، بغض النظر عن مكان تواجدهم.

وتصبح المرحلة الأولى من القانون قانونا الشهر المقبل. هذه هي المادة 5، التي تغطي الممارسات المحظورة للذكاء الاصطناعي والاستخدامات غير المقبولة للذكاء الاصطناعي. تم الانتهاء من نص المادة 5 في 12 يوليو 2024 وسيدخل حيز التنفيذ بعد ستة أشهر، مما يعني أنه اعتبارًا من فبراير، ستحتاج المنظمات التي تبني أنظمة الذكاء الاصطناعي أو تستخدم الذكاء الاصطناعي كجزء من منتجات وخدمات الاتحاد الأوروبي إلى إثبات امتثال أنظمتها للمادة 5.

جاهز للمادة 5

من بين استخدامات الذكاء الاصطناعي المحظورة بموجب المادة 5 أنظمة الذكاء الاصطناعي التي تنشر تقنيات لا شعورية تتجاوز وعي الشخص أو تقنيات التلاعب أو الخداع عن قصد. وتحظر المادة 5 أيضًا استخدام أنظمة الذكاء الاصطناعي التي تستغل أيًا من نقاط الضعف لدى شخص أو مجموعة محددة من الأشخاص بسبب عمرهم أو إعاقتهم أو وضع اجتماعي أو اقتصادي محدد. الأنظمة التي تحلل السلوكيات الاجتماعية ثم تستخدم هذه المعلومات بطريقة ضارة محظورة أيضًا بموجب المادة 5 إذا كان استخدامها يتجاوز الغرض الأصلي من جمع البيانات.

وتشمل المجالات الأخرى التي تغطيها المادة 5 استخدام أنظمة الذكاء الاصطناعي في إنفاذ القانون والقياسات الحيوية. ويصف مراقبو الصناعة هذا القانون بأنه نهج “قائم على المخاطر” لتنظيم الذكاء الاصطناعي.

في حين أنه من المقرر أن يتم تنفيذ المادة 5 اعتبارًا من فبراير، فإن المرحلة التالية من نشر قانون الذكاء الاصطناعي هي تطبيق قواعد الممارسة لأنظمة الذكاء الاصطناعي ذات الأغراض العامة. هذه هي الأنظمة التي يمكنها التعامل مع المهام التي لم يتم تدريبها خصيصًا للقيام بها. تغطي هذه الأنظمة الذكاء الاصطناعي الأساسي، مثل نماذج اللغات الكبيرة (LLMs). ستدخل هذه المرحلة التالية من قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي حيز التنفيذ في مايو 2025.

يجب على الشركات التي تبيع الذكاء الاصطناعي أو تستخدمه في الاتحاد الأوروبي الالتزام بقانون الذكاء الاصطناعي، بغض النظر عن مكان تواجدها. وفقًا لشركة ديلويت، فإن نطاق القانون يقدم للشركات متعددة الجنسيات ثلاثة خيارات محتملة: يمكنها تطوير أنظمة الذكاء الاصطناعي خصيصًا لسوق الاتحاد الأوروبي، أو اعتماد قانون الذكاء الاصطناعي كمعيار عالمي، أو تقييد عروضها عالية المخاطر داخل الاتحاد الأوروبي.

المشهد التنظيمي

يقول بارت ويليمسن، نائب الرئيس المحلل في شركة جارتنر، إنه يجري مئات المحادثات حول موضوع قانون الذكاء الاصطناعي للاتحاد الأوروبي وما يعنيه بالنسبة لقادة تكنولوجيا المعلومات وكبار مسؤولي أمن المعلومات. قبل انضمامه إلى شركة المحللين، شغل ويليمسن مناصب رئيسية كمسؤول الخصوصية والأمن في عدد من المنظمات. تجربته والوجبات الجاهزة من المحادثة مع عملاء Gartner هي أن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي يبني على اللائحة العامة لحماية البيانات (GDPR).

وبموجب اللائحة العامة لحماية البيانات، يجب جمع البيانات لغرض محدد ومشروع ويجب معالجتها بشكل قانوني وعادل وبطريقة شفافة. وعلى وجه التحديد، ينبغي أن يقتصر جمع البيانات على ما هو ضروري للغاية، ويجب الحفاظ على دقة البيانات. في الآونة الأخيرة، مع تقديم معيار ومعايير شهادة اللائحة العامة لحماية البيانات (GDPR) BC 5701:2024، أصبحت المؤسسات الآن قادرة على إظهار أنها تستوفي مستوى من الكفاءة في التعامل مع معلومات التعريف الشخصية (PII).

هناك الكثير من الدروس التي يمكن أن تكون تعلمت من اللائحة العامة لحماية البيانات وينبغي تطبيق ذلك على قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي. على الرغم من الانتهاء من النص الخاص باللائحة العامة لحماية البيانات في عام 2016، إلا أنه لم يدخل حيز التنفيذ حتى عام 2018.

يقول ويليمسن: “لقد تعلم المشرعون القليل من تجربة اللائحة العامة لحماية البيانات”. “بعد مرور عامين على فترة السماح في مايو 2018، بدأ الجميع يتصلون بي ويسألونني من أين يبدأون.” بمعنى آخر، أمضت المنظمات عامين خلال فترة السماح دون فعل أي شيء بشأن القانون العام لحماية البيانات (GDPR).

لكن الأمر لا يقتصر على اللائحة العامة لحماية البيانات (GDPR) فقط. يقول ويليمسن: “أحد الأشياء التي أجد نفسي مضطرًا إلى شرحها للمؤسسات هو النظر إلى قانون الذكاء الاصطناعي في سياق الإطار التشريعي. فهو محاط بأشياء مثل قانون الخدمات الرقمية، قانون الأسواق الرقمية، قانون إدارة البيانات، وحتى توجيه إعداد تقارير استدامة الشركات (CSRD)“.

من المتوقع أن يؤدي نمو الذكاء الاصطناعي، إلى جانب زيادة استخدام السحابة وزيادة حجم البيانات في التطبيقات التقليدية، إلى زيادة كبيرة في انبعاثات الكربون من تكنولوجيا المعلومات عبر الصناعات.

على سبيل المثال، في حين أن العديد من المنظمات واثقة من قدرتها على الإبلاغ عن انبعاثات الغازات الدفيئة للامتثال لمعايير الاتحاد الأوروبي CSDR، وهي شركة استشارات إدارية باين وشركاه وتوقعت أنه بحلول عام 2030، سيؤدي نمو الذكاء الاصطناعي، إلى جانب زيادة استخدام السحابة وزيادة أحجام البيانات في التطبيقات التقليدية، إلى زيادة كبيرة في انبعاثات الكربون من تكنولوجيا المعلومات عبر الصناعات.

ستحتاج المنظمات العاملة في الاتحاد الأوروبي إلى أن تأخذ في الاعتبار CSDR. ونظرًا لطبيعة التعلم الآلي واستدلال الذكاء الاصطناعي المتعطشة للطاقة، فإن مدى استخدام الذكاء الاصطناعي قد يتأثر بمثل هذه اللوائح في المستقبل.

في حين أنها تعتمد على اللوائح الحالية، كما لاحظت ميلاني جورنيه ووينستون ماكسويل في هال ورقة العلوم المفتوحة النهج الأوروبي لتنظيم الذكاء الاصطناعي من خلال المعايير التقنية، فإن قانون الذكاء الاصطناعي يأخذ طريقًا مختلفًا عن ذلك. وتتمثل ملاحظتهم في أن قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي يستمد الإلهام من قواعد سلامة المنتجات الأوروبية.

وكما يوضح جورنيه وماكسويل: “ستتطلب أنظمة الذكاء الاصطناعي تقييم المطابقة الذي سيعتمد على معايير منسقة، أي المواصفات الفنية التي وضعتها منظمات التقييس الأوروبية (ESOs).”

ويشير المؤلفون إلى أن هذه القوانين تمتلك خصائص قانونية مختلفة، مثل توليد افتراض التوافق مع التشريع. يؤدي تقييم المطابقة هذا إلى وضع علامة المطابقة الأوروبية (CE) لمنتج الذكاء الاصطناعي لإظهار الامتثال للوائح الاتحاد الأوروبي. وخلافا للوائح الأخرى المتعلقة بسلامة المنتجات، يشير جورنت وماكسويل إلى أن قانون الذكاء الاصطناعي لا يهدف فقط إلى الحماية من المخاطر التي تهدد السلامة، بل أيضا من الآثار الضارة على الحقوق الأساسية.

المعايير وأفضل الممارسات

“ما رأيناه في العقد الماضي له أهمية الآن عند التحضير لقانون الذكاء الاصطناعي”، يقول ويليمسن، عندما سئل عن الخطوات التي يجب على المنظمات اتخاذها لضمان بقائها ملتزمة بالقانون. ويحث المنظمات التي تشرع في استراتيجية الذكاء الاصطناعي على عدم التقليل من أهمية هذه المتطلبات القانونية.

في إحدى المدونات التي تتناول أهمية قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، مارتن جيل، نائب الرئيس لمدير الأبحاث في فوريستريصف التشريع بأنه “الحد الأدنى من المعايير، وليس أفضل الممارسات”.

ويقول: “سيكون بناء الثقة مع المستهلكين والمستخدمين أمرًا أساسيًا لتطوير تجارب الذكاء الاصطناعي. بالنسبة للشركات العاملة داخل الاتحاد الأوروبي، وحتى تلك الموجودة خارجه، فإن اتباع توصيات تصنيف المخاطر والحوكمة التي يحددها قانون الاتحاد الأوروبي للذكاء الاصطناعي يعد نهجًا قويًا موجهًا نحو المخاطر، والذي سيساعد، على الأقل، في إنشاء بيئة آمنة وجديرة بالثقة ومرتكزة على الإنسان. تجارب الذكاء الاصطناعي التي لا تسبب أي ضرر، وتتجنب الأخطاء المكلفة أو المحرجة، ومن الناحية المثالية، تعزز الكفاءة والتمايز.

تحمل المسؤولية عن الذكاء الاصطناعي

لا يعتقد ويليمسن أن المنظمات بحاجة إلى إنشاء دور كبير لمسؤولي الذكاء الاصطناعي. “إنه ليس نظامًا مختلفًا مثل الأمن أو الخصوصية. في معظم الأحيان، يعتبر الذكاء الاصطناعي نوعًا جديدًا من التكنولوجيا.

ومع ذلك، فإن تدابير الخصوصية والأمان مطلوبة عند النظر في كيفية نشر تكنولوجيا الذكاء الاصطناعي. ولهذا السبب يشعر ويليمسن أن القانون العام لحماية البيانات (GDPR) هو أحد اللوائح التنظيمية التي تحتاج المؤسسات إلى استخدامها لتأطير استراتيجية الذكاء الاصطناعي الخاصة بها.

ويحث المنظمات على اتخاذ تدابير استراتيجية وتكتيكية وتشغيلية عند نشر أنظمة الذكاء الاصطناعي. ويتطلب ذلك وجود فريق ذكاء اصطناعي متعدد أصحاب المصلحة ومتعدد التخصصات، والذي يقول ويليمسن إنه يحتاج إلى النمو مع نمو المشاريع وبناء المعرفة والخبرة. ويضيف: “في هذا الفريق، سترى أصحاب المصلحة في مجالات الأمن والخصوصية والقانونية والامتثال والأعمال”.

في حين أن قادة الأعمال قد يشعرون أن استراتيجية الذكاء الاصطناعي الخاصة بهم متوافقة مع قانون الذكاء الاصطناعي في الاتحاد الأوروبي، فإن الأمر نفسه لا ينطبق على الموردين وأنظمة المؤسسات التي تدعم الذكاء الاصطناعي. في ورقة جارتنر، الاستعداد لقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، المرحلة 3توصي شركة التحليل بأن يستوعب قادة تكنولوجيا المعلومات والأعمال قانون الذكاء الاصطناعي في أي تقييم للمخاطر يجريه طرف ثالث. وتقول جارتنر إن هذا يجب أن يشمل مراجعات تعاقدية ودفعًا لتعديل العقود الحالية بلغة جديدة لتعزيز المتطلبات التنظيمية الناشئة.

وكما تشير مؤسسة جارتنر، هناك احتمال كبير بأن أكبر مخاطر الذكاء الاصطناعي التي تواجهها مؤسسة ما قد لا تكون لها علاقة بالذكاء الاصطناعي الذي تطوره بنفسها. وبدلاً من ذلك، قد تظل معرضة لخطر عدم الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي إذا استخدم مزودو تكنولوجيا المعلومات وموردوها بيانات المنظمة لتدريب نماذجهم.

تحذر جارتنر من أن “معظم المؤسسات تقول إن عقود البائعين المبرمة معها لا تسمح لمورديها باستخدام بياناتهم، ولكن معظم عقود البائعين تتضمن بندًا خاصًا بتعزيز المنتج”. ويمكن تفسير مثل هذا الشرط على أنه يمنح المورد الحق في استخدام بيانات المنظمة لمساعدتها على تحسين منتجاتها.

والأمر الواضح هو أنه، بغض النظر عما إذا كانت المنظمة لديها مكاتب في الاتحاد الأوروبي، إذا كانت تقدم منتجات وخدمات لمواطني الاتحاد الأوروبي، فإن تقييم تأثير قانون الذكاء الاصطناعي أمر ضروري. قد يؤدي عدم الامتثال لمتطلبات القانون إلى تكلفة الشركات ما يصل إلى 15 مليون يورو أو 3% من حجم الأعمال العالمي. يمكن أن يؤدي انتهاك المادة 5 – التي تغطي الاستخدامات المحظورة للذكاء الاصطناعي – إلى فرض غرامات تصل إلى 35 مليون يورو أو 7٪ من إجمالي المبيعات العالمية.



Source link

زر الذهاب إلى الأعلى