إليكم ما يعنيه ذلك بالنسبة لشركات التكنولوجيا الأمريكية
يدخل قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي حيز التنفيذ رسميًا يوم الخميس – وهو ما يعني تغييرات صعبة بالنسبة لشركات التكنولوجيا العملاقة الأمريكية.
قانون الذكاء الاصطناعي، وهو قاعدة تاريخية تهدف إلى تنظيم الطريقة التي تطور بها الشركات الذكاء الاصطناعي وتستخدمه وتطبقه، حصل على الموافقة النهائية من الدول الأعضاء في الاتحاد الأوروبي والمشرعين والمفوضية الأوروبية – الهيئة التنفيذية للاتحاد الأوروبي – في شهر مايو.
قدمت قناة CNBC كل ما تحتاج إلى معرفته حول قانون الذكاء الاصطناعي – وكيف سيؤثر على أكبر شركات التكنولوجيا العالمية.
ما هو قانون الذكاء الاصطناعي؟
قانون الذكاء الاصطناعي هو جزء من تشريعات الاتحاد الأوروبي التي تحكم الذكاء الاصطناعي. وقد اقترحت المفوضية الأوروبية هذا القانون لأول مرة في عام 2020، ويهدف إلى معالجة التأثيرات السلبية للذكاء الاصطناعي.
تضع اللائحة إطارًا تنظيميًا شاملاً ومتناسقًا للذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي.
وسوف تستهدف في المقام الأول شركات التكنولوجيا الأميركية الكبرى، التي تعد حاليا البناة والمطورين الأساسيين لأنظمة الذكاء الاصطناعي الأكثر تقدما.
ومع ذلك، فإن الكثير من الشركات الأخرى سوف تندرج تحت نطاق القواعد – حتى الشركات غير التكنولوجية.
وقال تانجوي فان أوفرسترايتن، رئيس قسم التكنولوجيا والإعلام والتكنولوجيا في شركة المحاماة لينكليترز في بروكسل، إن قانون الذكاء الاصطناعي في الاتحاد الأوروبي هو “الأول من نوعه في العالم”.
“ومن المرجح أن يؤثر ذلك على العديد من الشركات، وخاصة تلك التي تعمل على تطوير أنظمة الذكاء الاصطناعي، ولكن أيضًا تلك التي تنشرها أو تستخدمها في ظروف معينة.”
ويطبق التشريع نهجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، مما يعني أن التطبيقات المختلفة للتكنولوجيا يتم تنظيمها بشكل مختلف اعتمادًا على مستوى المخاطر التي تشكلها على المجتمع.
على سبيل المثال، بالنسبة لتطبيقات الذكاء الاصطناعي التي تعتبر “عالية المخاطر”، سيتم تقديم التزامات صارمة بموجب قانون الذكاء الاصطناعي. وتشمل هذه الالتزامات أنظمة تقييم المخاطر والتخفيف منها، ومجموعات بيانات التدريب عالية الجودة لتقليل مخاطر التحيز، والتسجيل الروتيني للنشاط، والمشاركة الإلزامية للوثائق التفصيلية حول النماذج مع السلطات لتقييم الامتثال.
تشمل أمثلة أنظمة الذكاء الاصطناعي عالية المخاطر المركبات ذاتية القيادة، والأجهزة الطبية، وأنظمة اتخاذ القرارات بشأن القروض، والتقييم التعليمي، وأنظمة التعريف البيومترية عن بعد.
ويفرض القانون أيضًا حظرًا شاملًا على أي تطبيقات للذكاء الاصطناعي تعتبر “غير مقبولة” من حيث مستوى خطورتها.
وتشمل تطبيقات الذكاء الاصطناعي التي تنطوي على مخاطر غير مقبولة أنظمة “التقييم الاجتماعي” التي تصنف المواطنين على أساس تجميع وتحليل بياناتهم، والشرطة التنبؤية، واستخدام تكنولوجيا التعرف على المشاعر في مكان العمل أو المدارس.
ماذا يعني ذلك بالنسبة لشركات التكنولوجيا الأمريكية؟
عمالقة الولايات المتحدة مثل مايكروسوفت, جوجل, أمازون, تفاحة، و ميتا لقد أقامت الشركات شراكات قوية واستثمرت مليارات الدولارات في شركات تعتقد أنها قادرة على الريادة في مجال الذكاء الاصطناعي وسط جنون عالمي حول التكنولوجيا.
وتُعد المنصات السحابية مثل Microsoft Azure وAmazon Web Services وGoogle Cloud أيضًا أساسية لدعم تطوير الذكاء الاصطناعي، نظرًا للبنية التحتية الحاسوبية الضخمة اللازمة لتدريب نماذج الذكاء الاصطناعي وتشغيلها.
وفي هذا الصدد، ستكون شركات التكنولوجيا الكبرى بلا شك من بين الأسماء الأكثر استهدافًا بموجب القواعد الجديدة.
وقال تشارلي طومسون، نائب الرئيس الأول لمنطقة أوروبا والشرق الأوسط وأفريقيا وأمريكا اللاتينية في شركة Appian للبرمجيات المؤسسية، لشبكة CNBC عبر البريد الإلكتروني: “إن قانون الذكاء الاصطناعي له آثار تتجاوز الاتحاد الأوروبي بكثير. فهو ينطبق على أي منظمة لديها أي عملية أو تأثير في الاتحاد الأوروبي، مما يعني أن قانون الذكاء الاصطناعي من المرجح أن ينطبق عليك بغض النظر عن مكان وجودك”.
وأضاف تومسون: “سيؤدي هذا إلى مزيد من التدقيق على شركات التكنولوجيا العملاقة عندما يتعلق الأمر بعملياتها في سوق الاتحاد الأوروبي واستخدامها لبيانات مواطني الاتحاد الأوروبي”.
لقد قامت شركة Meta بالفعل بتقييد توفر نموذج الذكاء الاصطناعي الخاص بها في أوروبا بسبب المخاوف التنظيمية – على الرغم من أن هذه الخطوة لم تكن بالضرورة بسبب قانون الذكاء الاصطناعي في الاتحاد الأوروبي.
قالت شركة فيسبوك في وقت سابق من هذا الشهر إنها لن تجعل نماذج LLaMa الخاصة بها متاحة في الاتحاد الأوروبي، مشيرة إلى عدم اليقين بشأن ما إذا كانت متوافقة مع اللائحة العامة لحماية البيانات في الاتحاد الأوروبي، أو GDPR.
وصدر أمر للشركة في وقت سابق بالتوقف عن تدريب عارضاتها على المنشورات من فيسبوك وإنستغرام في الاتحاد الأوروبي بسبب المخاوف من أنها قد تنتهك قانون حماية البيانات العامة (GDPR).
كيف يتم التعامل مع الذكاء الاصطناعي التوليدي؟
تم تصنيف الذكاء الاصطناعي التوليدي في قانون الذكاء الاصطناعي في الاتحاد الأوروبي كمثال على الذكاء الاصطناعي “للأغراض العامة”.
تشير هذه التسمية إلى الأدوات التي من المفترض أن تكون قادرة على إنجاز مجموعة واسعة من المهام على مستوى مماثل – إن لم يكن أفضل من – الإنسان.
تتضمن نماذج الذكاء الاصطناعي للأغراض العامة، على سبيل المثال لا الحصر، GPT من OpenAI، وGemini من Google، وClaude من Anthropic.
بالنسبة لهذه الأنظمة، يفرض قانون الذكاء الاصطناعي متطلبات صارمة مثل احترام قانون حقوق النشر في الاتحاد الأوروبي، وإصدار إفصاحات الشفافية حول كيفية تدريب النماذج، وإجراء اختبارات روتينية وحماية كافية للأمن السيبراني.
ولكن لا يتم التعامل مع جميع نماذج الذكاء الاصطناعي على قدم المساواة. فقد قال مطورو الذكاء الاصطناعي إن الاتحاد الأوروبي بحاجة إلى ضمان عدم فرض قيود صارمة للغاية على النماذج مفتوحة المصدر ــ والتي تكون مجانية للعامة ويمكن استخدامها لبناء تطبيقات الذكاء الاصطناعي المخصصة.
تتضمن أمثلة النماذج مفتوحة المصدر LLaMa من Meta، و Stable Diffusion من Stability AI، و7B من Mistral.
يضع الاتحاد الأوروبي بعض الاستثناءات لنماذج الذكاء الاصطناعي التوليدي مفتوحة المصدر.
ولكن للتأهل للإعفاء من القواعد، يتعين على مزودي البرامج مفتوحة المصدر جعل معاييرهم، بما في ذلك الأوزان وهندسة النموذج واستخدام النموذج، متاحة للجمهور، وتمكين “الوصول إلى النموذج واستخدامه وتعديله وتوزيعه”.
لن يتم احتساب النماذج مفتوحة المصدر التي تشكل مخاطر “نظامية” للإعفاء، وفقًا لقانون الذكاء الاصطناعي.
وقال فان أوفرسترايتن “من الضروري أن نقيم بعناية توقيت تطبيق القواعد ودور أصحاب المصلحة المعنيين”.
ماذا يحدث إذا انتهكت الشركة القواعد؟
الشركات التي تنتهك قانون الذكاء الاصطناعي في الاتحاد الأوروبي يمكن تغريمه تتراوح حصة الشركات المدرجة في بورصة نيويورك من 35 مليون يورو (41 مليون دولار) أو 7% من إيراداتها السنوية العالمية – أيهما أعلى – إلى 7.5 مليون يورو أو 1.5% من إيراداتها السنوية العالمية.
يعتمد حجم العقوبات على المخالفة وحجم الشركة التي تم تغريمها.
وهذا أعلى من الغرامات الممكنة بموجب اللائحة العامة لحماية البيانات، وهو قانون الخصوصية الرقمية الصارم في أوروبا. وتواجه الشركات غرامات تصل إلى 20 مليون يورو أو 4% من إجمالي مبيعاتها السنوية في حالة انتهاك اللائحة العامة لحماية البيانات.
وستقع مسؤولية الإشراف على جميع نماذج الذكاء الاصطناعي التي تندرج ضمن نطاق القانون – بما في ذلك أنظمة الذكاء الاصطناعي للأغراض العامة – على عاتق مكتب الذكاء الاصطناعي الأوروبي، وهو هيئة تنظيمية أنشأتها المفوضية في فبراير 2024.
وقال جميل جيفا، رئيس إدارة الأصول العالمية في شركة التكنولوجيا المالية Linedata، لشبكة CNBC، إن الاتحاد الأوروبي “يفهم أنه بحاجة إلى فرض غرامات كبيرة على الشركات المخالفة إذا كان يريد أن يكون للوائح تأثير”.
وأضاف جيفا أن الاتحاد الأوروبي يحاول مرة أخرى، من خلال قانون الذكاء الاصطناعي، تكرار هذا الأمر، على غرار الطريقة التي أظهر بها قانون حماية البيانات العامة الطريقة التي يمكن بها للاتحاد الأوروبي “مضاعفة نفوذه التنظيمي لإلزام أفضل ممارسات خصوصية البيانات” على المستوى العالمي.
ومع ذلك، تجدر الإشارة إلى أنه على الرغم من أن قانون الذكاء الاصطناعي دخل حيز التنفيذ أخيرًا، فإن معظم الأحكام المنصوص عليها في القانون لن تدخل حيز التنفيذ فعليًا حتى عام 2026 على الأقل.
لن تبدأ القيود المفروضة على الأنظمة ذات الأغراض العامة إلا بعد مرور 12 شهرًا على دخول قانون الذكاء الاصطناعي حيز التنفيذ.
كما يتم منح أنظمة الذكاء الاصطناعي التوليدي المتاحة تجارياً حالياً – مثل ChatGPT من OpenAI وGemini من Google – “فترة انتقالية” مدتها 36 شهراً لجعل أنظمتها متوافقة.