شرح قانون الاتحاد الأوروبي للذكاء الاصطناعي: ما يحتاج مطورو الذكاء الاصطناعي إلى معرفته
وافق البرلمان الأوروبي على قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU) في مارس 2024، وهدفه هو تزويد مطوري ونشر الذكاء الاصطناعي (AI) بما يصفه صناع السياسة في الاتحاد الأوروبي بـ “متطلبات واضحة والالتزامات المتعلقة باستخدامات محددة للذكاء الاصطناعي”.
ويأملون أيضًا أن يؤدي التنظيم إلى تقليل الأعباء الإدارية والمالية على الشركات، ولا سيما الشركات الصغيرة والمتوسطة.
ويهدف القانون إلى توفير أ الإطار التنظيمي لتشغيل أنظمة الذكاء الاصطناعي مع التركيز على السلامة والخصوصية ومنع تهميش الأشخاص. هناك عدد من حالات استخدام نشر الذكاء الاصطناعي مستبعدة من القانون. ومع ذلك، يعتقد بعض منتقديها أن هناك الكثير من الثغرات، وخاصة فيما يتعلق بالأمن القومي، الأمر الذي قد يحد من فعاليته.
السبب وراء بحث الاتحاد الأوروبي والولايات القضائية الأخرى في كيفية معالجة المخاوف المتعلقة بسلامة الذكاء الاصطناعي هو أن مثل هذه الأنظمة قد يتم تدريبها على البيانات التي يمكن أن تتغير بمرور الوقت.
تحذر مجموعة الذكاء الاصطناعي التابعة لمنظمة التعاون الاقتصادي والتنمية (OECD) من أن الأنظمة القائمة على الذكاء الاصطناعي تتأثر بالديناميكيات المجتمعية والسلوك البشري.
يمكن أن تنشأ مخاطر وفوائد الذكاء الاصطناعي من التفاعل بين الجوانب التقنية جنبًا إلى جنب مع العوامل المجتمعية المتعلقة بكيفية استخدام النظام، وتفاعلاته مع أنظمة الذكاء الاصطناعي الأخرى، ومن يقوم بتشغيله، والسياق الاجتماعي الذي يتم نشره فيه.
بشكل عام، تركز تشريعات الذكاء الاصطناعي على الاستخدام المسؤول لأنظمة الذكاء الاصطناعي، والذي يتضمن كيفية تدريبها، وتحيز البيانات وقابلية التفسير، حيث يمكن أن يكون للأخطاء تأثير ضار على الفرد.
مرصد السياسة OECD.ai إطار إدارة مخاطر الذكاء الاصطناعي يلاحظ أن التغييرات التي تحدث في بيانات تدريب الذكاء الاصطناعي يمكن أن تؤثر أحيانًا بشكل غير متوقع على وظائف النظام ومصداقيته بطرق يصعب فهمها. يحذر مرصد السياسات التابع لمنظمة التعاون الاقتصادي والتنمية (OECD.ai) من أن أنظمة الذكاء الاصطناعي والسياقات التي يتم نشرها فيها غالبا ما تكون معقدة، مما يجعل من الصعب اكتشاف حالات الفشل والاستجابة لها عند حدوثها.
يتبع قانون الاتحاد الأوروبي للذكاء الاصطناعي نهجًا قائمًا على المخاطر فيما يتعلق بسلامة الذكاء الاصطناعي، مع أربعة مستويات من المخاطر لأنظمة الذكاء الاصطناعي، بالإضافة إلى تحديد المخاطر الخاصة بنموذج الأغراض العامة.
إنها جزء من حزمة أوسع من تدابير السياسة لدعم تطوير الذكاء الاصطناعي الجدير بالثقة، والتي تتضمن أيضًا حزمة ابتكار الذكاء الاصطناعي والخطة المنسقة بشأن الذكاء الاصطناعي. ويقول الاتحاد الأوروبي إن هذه الإجراءات ستضمن السلامة والحقوق الأساسية للأشخاص والشركات عندما يتعلق الأمر بالذكاء الاصطناعي، وستعزز استيعاب الذكاء الاصطناعي والاستثمار فيه والابتكار في جميع أنحاء الاتحاد الأوروبي.
الوجبات السريعة الرئيسية من قانون الاتحاد الأوروبي للذكاء الاصطناعي
الفعل يوفر مجموعة من الدرابزين للأغراض العامة منظمة العفو الدولية. يحتاج مطورو هذه الأنظمة إلى إعداد الوثائق الفنية لضمان امتثال الذكاء الاصطناعي لقانون حقوق الطبع والنشر في الاتحاد الأوروبي، ومشاركة ملخصات مفصلة حول المحتوى المستخدم للتدريب. فهو يحدد قواعد مختلفة لمستويات مختلفة من المخاطر.
وفي فئة “المخاطر غير المقبولة”، حاول القانون الحد من استخدام أنظمة تحديد الهوية البيومترية من قبل جهات إنفاذ القانون. تُحظر أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة (على سبيل المثال، المعتقدات السياسية والدينية والفلسفية، والتوجه الجنسي، والعرق).
يشمل الذكاء الاصطناعي عالي الخطورة الذي يغطيه القانون أنظمة الذكاء الاصطناعي المستخدمة في المنتجات الخاضعة لتشريعات سلامة المنتجات في الاتحاد الأوروبي. ويشمل ذلك الألعاب والطيران والسيارات والأجهزة الطبية والمصاعد. ويغطي أيضًا الذكاء الاصطناعي المستخدم في عدد من أدوار دعم القرار مثل إنفاذ القانون واللجوء والهجرة ومراقبة الحدود والتعليم والتوظيف وإدارة البنية التحتية الوطنية الحيوية.
يجب تقييم المنتجات التي تندرج ضمن الفئة عالية المخاطر قبل طرحها في السوق، وكذلك طوال دورة حياتها. يمنح القانون الأشخاص الحق في تقديم شكاوى حول أنظمة الذكاء الاصطناعي إلى السلطات الوطنية المعينة. لا يتم تصنيف الذكاء الاصطناعي التوليدي (GenAI)، مثل ChatGPT، على أنه عالي المخاطر. وبدلا من ذلك، ينص القانون على أن مثل هذه الأنظمة تحتاج إلى الامتثال لمتطلبات الشفافية وقانون حقوق الطبع والنشر في الاتحاد الأوروبي.
من يتأثر بقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي؟
ستيفن كاتانزانويشير أحد كبار المحللين في Enterprise Strategy Group إلى أن قانون الذكاء الاصطناعي ينطبق على مقدمي أنظمة الذكاء الاصطناعي. ويقول إن ذلك يعني أنه يشمل الشركات التي تقوم بتطوير وتسويق أنظمة الذكاء الاصطناعي أو توفير هذه الأنظمة باسمها أو علامتها التجارية، سواء مقابل أجر أو مجانًا.
بالإضافة إلى ذلك، يشير كاتانزانو إلى أن قانون الذكاء الاصطناعي يغطي مستوردي وموزعي أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي، ويمتد أيضًا إلى “الموزعين”، الذين يتم تعريفهم على أنهم كيانات طبيعية أو قانونية تستخدم الذكاء الاصطناعي تحت سلطتها في أنشطتها المهنية.
محلل رئيسي إنزا يانوبوللو وتقول إنه على الرغم من عدم وجود تفاصيل حول المعايير والبروتوكولات التقنية، فإنها تحث المؤسسات على الأقل على الاستعداد لقياس أداء أنظمة الذكاء الاصطناعي الخاصة بها والإبلاغ عنها. ووفقا لإيانوبولو، يمكن القول أن هذا هو أحد التحديات الرئيسية للمتطلبات الجديدة.
وكتبت في تدوينة تغطي القانون: “يجب على الشركات أن تبدأ بقياس أداء أنظمة الذكاء الاصطناعي وGenAI الخاصة بها من المبادئ الحاسمة للذكاء الاصطناعي المسؤول، مثل التحيز والتمييز والظلم”.
ومع ظهور معايير ومواصفات فنية جديدة، من المتوقع أن يتم توسيع نطاق الصياغة في جزء من القانون.
كيف يختلف الاتحاد الأوروبي عن المناطق الأخرى في تنظيم الذكاء الاصطناعي؟
مهما كانت المنطقة التي تعمل فيها المنظمة، إذا أرادت نشر الذكاء الاصطناعي في مكان آخر، فإنها تحتاج إلى فهم الإطار التنظيمي في بلدها الأصلي وفي المناطق الأخرى حيث سيتم استخدام النظام. وفي وقت كتابة هذا التقرير، اتخذ الاتحاد الأوروبي نهجا قائما على المخاطر.
ومع ذلك، اتبعت دول أخرى مناهج مختلفة فيما يتعلق بتنظيم الذكاء الاصطناعي. في حين تختلف الولايات القضائية المختلفة في نهجها التنظيمي، بما يتماشى مع المعايير الثقافية والسياقات التشريعية المختلفة، تشير إي واي إنهم متفقون على نطاق واسع في الاعتراف بالحاجة إلى التخفيف من الأضرار المحتملة للذكاء الاصطناعي مع تمكين استخدامه لتحقيق المنفعة الاقتصادية والاجتماعية للمواطنين على النحو الذي حددته منظمة التعاون الاقتصادي والتنمية وأقرته مجموعة العشرين. وتشمل هذه احترام حقوق الإنسان والاستدامة والشفافية والإدارة القوية للمخاطر.
ويطرح مخطط الإطار التنظيمي للذكاء الاصطناعي الذي أصدرته حكومة المملكة المتحدة، والذي نُشر في فبراير/شباط، نهجاً “مؤيداً للابتكار”. من المبشر أن نرى هذا الوعي حول الحاجة إلى المبادئ التوجيهية، ولكن المبادئ غير التشريعية تركز على اللاعبين الرئيسيين المشاركين في تطوير الذكاء الاصطناعي.
ولتشجيع الابتكار الشامل، يتعين على المملكة المتحدة أن تعمل على إشراك أكبر عدد ممكن من الأصوات عند تشكيل المشهد التنظيمي. هذا، بحسب جافين بول، الرئيس التنفيذي لشركة Here East، يعني أن صناع السياسات والمنظمين بحاجة إلى المشاركة بنشاط ليس فقط مع شركات التكنولوجيا الكبرى، ولكن أيضًا مع الشركات الناشئة والمؤسسات التعليمية والشركات الصغيرة أيضًا.
ويقول: “إن إقرار الاتحاد الأوروبي لقانون الذكاء الاصطناعي الرائد هو بمثابة دعوة للاستيقاظ للمملكة المتحدة – وهو تذكير بأنه يجب علينا التكيف وتطوير مبادئنا التوجيهية للبقاء في الطليعة”. “السيناريو المثالي هو إطار يعزز النمو ويستثمر في المواهب المحلية والإمكانات المستقبلية، لتعزيز مكانتنا كشركة رائدة عالميًا في مجال ابتكار الذكاء الاصطناعي.”
أهمية التأثير المتبادل
ويختلف نهج الاتحاد الأوروبي تمام الاختلاف عن نهج الولايات المتحدة. تقول إيفانا بارتوليتي، كبيرة مسؤولي الخصوصية وحوكمة الذكاء الاصطناعي في شركة ويبرو، إن هذا أمر جيد في الواقع. وتقول: “هناك حاجة إلى التخصيب المتبادل والتأثير المتبادل بينما نعمل على إيجاد أفضل طريقة للتحكم في هذه التكنولوجيا القوية”.
وكما يشير بارتوليتي، فرغم أن تشريعات الولايات المتحدة والاتحاد الأوروبي تتباين بعض الشيء، فإن الاستراتيجيتين تظهران تقارباً بشأن بعض العناصر الأساسية. على سبيل المثال، هناك تركيز على العدالة والسلامة والمتانة. وهناك أيضًا التزام قوي وإجراءات قوية لتحقيق التوازن بين الابتكار وتركيز القوة في شركات التكنولوجيا الكبرى.
وتحرز الصين أيضًا تقدمًا كبيرًا في تنظيم الذكاء الاصطناعي. وقد ركز نهجها في السابق على مجالات محددة من الذكاء الاصطناعي، بدلاً من بناء نظام تنظيمي شامل لأنظمة الذكاء الاصطناعي. على سبيل المثال، جيمي رولاندزلاحظ أحد الشركاء، وأنجوس ميلن، وهو زميل في شركة Haseltine Lake Kempner، أن الصين قد أدخلت تشريعات فردية لخوارزميات التوصية، وGenAI، والتزييف العميق. ويقولون إن هذا النهج كان على ما يبدو بمثابة رد فعل للتطورات في مجال الذكاء الاصطناعي، بدلاً من السعي بشكل استباقي لتشكيل هذا التطور.
وفي يونيو 2023، أكدت الصين أنها تعمل على قانون الذكاء الاصطناعي. ليس من الواضح حاليًا ما الذي سيغطيه القانون الجديد حيث لم يتم نشر مسودة بعد، ولكن من المتوقع أنه سيسعى إلى توفير إطار تنظيمي شامل وبالتالي يحتمل أن ينافس قانون الذكاء الاصطناعي للاتحاد الأوروبي من حيث الاتساع والطموح.
ما هو التأثير على قطاع الذكاء الاصطناعي الأوروبي؟
الجمعية الألمانية للذكاء الاصطناعي وحذرت من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي، في شكله الحالي، سيؤثر سلبًا بشكل خطير على النظام البيئي الأوروبي للذكاء الاصطناعي، وربما يؤدي إلى ضرر تنافسي، خاصة بالنسبة للمنافسين الأمريكيين والصينيين.
وفي ورقة تناقش موقفها، حذرت من ضرورة استبعاد الذكاء الاصطناعي للأغراض العامة ونماذج اللغات الكبيرة، أو على الأقل من التصنيف القاطع لهذه النماذج كحالات استخدام عالية المخاطر.
“إننا ندعو إلى إعادة تقييم المتطلبات الحالية التي تصنف أنظمة الذكاء الاصطناعي على أنها حالات استخدام عالية المخاطر، وحماية وتشجيع الاستثمارات الأوروبية في نماذج اللغات الكبيرة ونماذج الوسائط المتعددة، وتوضيح التعريفات الغامضة والصيغ المختارة،” مؤلفو الدراسة. كتب الورق.