الذكاء الاصطناعي والامتثال: البقاء على الجانب الأيمن من القانون والتنظيم

اللوائح والأطر القانونية للذكاء الاصطناعي (منظمة العفو الدولية) تتخلف حاليًا عن امتصاص التكنولوجيا.
دفع صعود الذكاء الاصطناعى (Genai) التوليدي الذكاء الاصطناعي إلى مقدمة خطط تحديث المنظمات ، ولكن حتى الآن ، حدثت معظم التطورات في فراغ تنظيمي.
المنظمون يهرعون للحاق بالركب. وفقًا لمحلل الصناعة Gartner ، بين الربع الأول من 2024 و Q1 2025 ، تم تقديم أكثر من 1000 قطعة من تنظيم الذكاء الاصطناعى المقترح في جميع أنحاء العالم.
يحتاج كبير موظفي المعلومات (CIO) إلى التصرف الآن لضمان الامتثال لمشروع الذكاء الاصطناعي في بيئة تنظيمية يحذر نادر هينيين نادر هينيين من “فوضى غير مقصودة”.
أدت الأخطاء التي قام بها موردو الذكاء الاصطناعي وعملائهم إلى مجموعة من المشكلات ، بما في ذلك انتهاكات الخصوصية والأمن والتحيز والأخطاء ، و حتى الهلوسة حيث تنتج أدوات الذكاء الاصطناعي إجابات لا تستند إلى حقائق.
الأكثر شهرة أمثلة على مشاكل الذكاء الاصطناعي هي هلوسة. هنا ، ينتج تطبيق الذكاء الاصطناعي – عادةً Genai أو نموذج لغة كبير (LLM) – إجابة لا تعتمد على الحقائق.
حتى أن هناك اقتراحات بأن أحدث نماذج Genai هلوس أكثر من الإصدارات السابقة. أبحاث Openai الخاصة وجدت أن نماذج Openai O3 و O4-MINI هي أكثر عرضة للهلوسة.
الأخطاء والتحيز
يمكن أن يصنع Genai الأخطاء الأساسية والأخطاء في الحقيقة وتكون عرضة للتحيز. هذا يعتمد على البيانات التي يتم تدريبها على الأنظمة ، وكذلك الطريقة التي تعمل بها الخوارزميات. ومع ذلك ، يمكن أن يؤدي التحيز إلى نتائج قد تسبب جريمة ، أو حتى التمييز ضد أقسام المجتمع. هذا مصدر قلق لجميع مستخدمي الذكاء الاصطناعي ، ولكن خاصة في مجالات مثل الرعاية الصحية وإنفاذ القانون والخدمات المالية والتوظيف.
على نحو متزايد ، ترغب الحكومات والمنظمون في الصناعة في السيطرة على الذكاء الاصطناعي ، أو على الأقل ضمان عمل طلبات الذكاء الاصطناعى ضمن الخصوصية الحالية وقوانين التوظيف واللوائح الأخرى. يذهب البعض إلى أبعد من ذلك ، مثل الاتحاد الأوروبي (الاتحاد الأوروبي) مع قانون الذكاء الاصطناعي. وخارج الاتحاد الأوروبي ، يبدو المزيد من التنظيم أمرًا لا مفر منه.
يقول هينيين من غارتنر: “في الوقت الحاضر ، هناك القليل في طريق التنظيم في المملكة المتحدة”. “كلا ICO [Information Commissioner’s Office] وذكر كريس براينت ، وزير الدولة في وزارة العلوم والابتكار والتكنولوجيا ، أن تنظيم الذكاء الاصطناعي متوقع في الـ 12 إلى 18 شهرًا القادمة.
“لا نتوقع أن تكون نسخة من قانون الاتحاد الأوروبي الذكاء الاصطناعي، لكننا نتوقع درجة عادلة من المحاذاة ، خاصة فيما يتعلق بأنظمة الذكاء الاصطناعى عالية الخطورة وربما محظورة الاستخدامات لمنظمة العفو الدولية. “
قوانين وحكم الذكاء الاصطناعي
تحكم الذكاء الاصطناعي لمجموعة من القوانين واللوائح المتداخلة في بعض الأحيان. وتشمل هذه قوانين خصوصية البيانات والأمن ، والمبادئ التوجيهية والأطر التي تحدد المعايير حول استخدام الذكاء الاصطناعى حيث قد لا يتم دعمها العقوبات القانونية.
يقول إيفرين روه ، كبير مسؤولي التكنولوجيا القاري في أوروبا في Digitate: “تستند الأطر التنظيمية منظمة العفو الدولية مثل قانون الاتحاد الأوروبي لمنظمة العفو الدولية إلى تقييم المخاطر ، وتحديداً المخاطر التي يمكن أن تفرضها هذه التقنيات الجديدة على الناس”.
“ومع ذلك ، فإن المجموعة الكبيرة من التطبيقات والسرعة المتسارعة للابتكار في هذا المجال تجعل من الصعب للغاية على المنظمين تحديد عناصر تحكم محددة حول تقنيات الذكاء الاصطناعي.”
والكثير من القواعد يجعل من الصعب على المنظمات الامتثال. وفق بحث من قبل AIPRM، وهي شركة تساعد الشركات الأصغر على تحقيق أقصى استفادة من Genai ، والولايات المتحدة لديها 82 سياسات واستراتيجيات منظمة العفو الدولية ، والاتحاد الأوروبي لديه 63 ، والمملكة المتحدة لديها 61.
من بين هؤلاء ، القانون البارز هو قانون الذكاء الاصطناعي للاتحاد الأوروبي ، وأول قانون من الذكاء الاصطناعي “الأفقي” الذي يحكم الذكاء الاصطناعي ، بغض النظر عن مكان استخدامه أو كيف يتم استخدامه. لكن الأمر التنفيذي للولايات المتحدة حول التطوير الآمن والآمن والجدير بالثقة واستخدام الذكاء الاصطناعي يضع أيضًا معايير لأمن الذكاء الاصطناعي والخصوصية والسلامة.
بالإضافة إلى ذلك ، طورت المنظمات الدولية مثل OECD و UNN ومجلس أوروبا أطراف الذكاء الاصطناعي. لكن المهمة التي تواجه الهيئات الدولية وصانعي القانون الوطنيون ليست سهلة.
وفقًا لـ White & Case ، وهي شركة محاماة دولية يتتبع تطورات الذكاء الاصطناعي، “لقد اضطرت الحكومات والهيئات التنظيمية في جميع أنحاء العالم إلى التصرف بسرعة لمحاولة التأكد من أن أطر عملها التنظيمية لا تصبح قديمة …
وتقول: “لكنهم جميعهم يتدافعون للمتابعة للتطورات التكنولوجية ، وهناك بالفعل علامات على أن الجهود الناشئة لتنظيم الذكاء الاصطناعى ستكافح لمواكبة”.
هذا ، بدوره ، أدى إلى طرق مختلفة لتنظيم الذكاء الاصطناعي والامتثال. اعتمد الاتحاد الأوروبي قانون الذكاء الاصطناعي كائحة ، مما يعني أنه ينطبق مباشرة في القانون في الدول الأعضاء.
اختارت حكومة المملكة المتحدة حتى الآن تعليمات المنظمين بتطبيق المبادئ التوجيهية على كيفية استخدام الذكاء الاصطناعى في مجالات مسؤوليتهم. اختارت الولايات المتحدة مزيجًا من الأوامر التنفيذية ، والقوانين الفيدرالية والقوانين الحكومية ، وتنظيم الصناعة الرأسية.
كل هذا أصبح أكثر صعوبة من خلال عدم وجود تعريف واحد مقبول دوليا من الذكاء الاصطناعى. وهذا يجعل التنظيم والامتثال من قبل المنظمات التي تريد استخدام الذكاء الاصطناعي أكثر. كان لدى المنظمين والشركات الوقت الكافي لتعلم كيفية العمل مع لوائح مثل لائحة حماية البيانات العامة (GDPR) ، لكننا لسنا بعد في تلك المرحلة مع الذكاء الاصطناعي.
يقول هينيين من غارتنر: “كما هو الحال مع المناطق الأخرى ، هناك مستوى منخفض من النضج عندما يتعلق الأمر بحكم الذكاء الاصطناعي”. “على عكس الناتج المحلي الإجمالي ، الذي أعقب أربعة عقود من التنمية العضوية في معايير الخصوصية ، فإن الحكم التنظيمي من الذكاء الاصطناعي جديد.”
ويضيف أن الامتثال لقانون الذكاء الاصطناعي أصبح أكثر تعقيدًا لأنه ينطبق على ميزات AI للتكنولوجيا ، وليس فقط للمنتجات بأكملها. يجب الآن على مديري تقنية المعلومات وموظفي الامتثال حساب قدرات الذكاء الاصطناعى في البرمجيات ، على سبيل المثال ، كتطبيقات خدمة يستخدمونها لسنوات.
الانتقال إلى الامتثال
لحسن الحظ ، هناك خطوات يمكن للمنظمات اتخاذها لضمان الامتثال.
الأول هو التأكد من معرفة مديري المعلومات والمنظمة المعذارية في المنظمة. ثم يمكنهم مراجعة اللوائح الحالية ، مثل الناتج المحلي الإجمالي ، والتأكد من أن مشاريع الذكاء الاصطناعى تحافظ عليها.
لكنهم يحتاجون أيضًا إلى مراقبة تشريعات جديدة وتطوير. يلاحظ قانون الذكاء الاصطناعى ، على سبيل المثال ، شفافية الذكاء الاصطناعي والإشراف على الإنسان ، كما يلاحظ رالف ليندنوب ، كبير موظفي الحلول في Sify Technologies.
على الرغم من ذلك ، فإن المجالس تدرك بشكل متزايد الحاجة إلى “AI المسؤولة” ، حيث قام 84 ٪ من المديرين التنفيذيين بتصنيفها كأولوية ، وفقًا لـ Willie Lee ، أخصائي AI في جميع أنحاء العالم في Amazon Web Services.
ويوصي بالتعامل مع جميع مشاريع الذكاء الاصطناعى بالشفافية ، ويرافقها تقييم شامل للمخاطر لتحديد الأضرار المحتملة. يقول لي: “هذه هي المثل العليا الأساسية للوائح التي يتم كتابتها”.
يقول Digitate’s Ruh: “يجب بناء الحلول المستندة إلى الذكاء الاصطناعي مع المجموعة الصحيحة من الدرابزين المعمول بها. قد يؤدي الفشل في القيام بذلك إلى أحداث غير متوقعة مع تأثير سلبي هائل على صورة الشركة وإيراداتها.”




