الذكاء الاصطناعي والتشريعات المتطورة في الولايات المتحدة والخارج
مع استمرار هيمنة الذكاء الاصطناعي على عناوين الأخبار، يدرس صناع السياسات والمشرعون في جميع أنحاء العالم كيفية ومتى يتم تنظيم هذه التكنولوجيا لحماية مستهلكي الموظفين والمواطنين بشكل عام. وبصفتنا قادة أعمال، من المهم أن نفكر بشكل استراتيجي ومتعمد في كيفية استخدامنا للذكاء الاصطناعي لمواكبة التشريعات الحالية والناشئة، سواء كان ذلك يؤثر على الشركات في الولايات المتحدة أو على مستوى العالم.
المبادئ الأساسية التي تقوم عليها تشريعات الذكاء الاصطناعي
وبصورة عامة، تهدف هذه الجهود الرامية إلى تنظيم الذكاء الاصطناعي إلى إرساء الحماية والحواجز اللازمة للاستخدام الآمن للذكاء الاصطناعي. وهناك موضوعات مشتركة في كثير من التشريعات التي تم إقرارها أو المقترحات التي يجري العمل عليها في الولايات المتحدة أو في الخارج. ومن بين المبادئ التي تقوم عليها التشريعات التي تم إقرارها مؤخرا: قانون الذكاء الاصطناعي على سبيل المثال، تتضمن قوانين الاتحاد الأوروبي المتعلقة بالذكاء الاصطناعي ما يلي: حماية الخصوصية، والتخفيف من التحيز، وتوفير الشفافية والقدرة على التفسير، وضمان الإشراف البشري، ومراقبة النتائج بعد استخدام المنتج.
إن التدقيق شديد بشكل خاص على استخدام الذكاء الاصطناعي في مساحة الموارد البشرية لأن استخدام الذكاء الاصطناعي في التوظيف والترقية والتعويض وإنهاء الخدمة قد يؤدي إلى اتخاذ قرارات خطيرة وذات عواقب وخيمة بالنسبة للأفراد.
تستمر التشريعات الجديدة والحالية في كل من الاتحاد الأوروبي وأمريكا الشمالية في التطور كجزء من مشهد الامتثال.
قانون الاتحاد الأوروبي للذكاء الاصطناعي
وافق البرلمان الأوروبي على النص النهائي لقانون الذكاء الاصطناعي للاتحاد الأوروبي في وقت سابق من هذا العام، ودخل القانون حيز التنفيذ في أغسطس/آب. وعلى غرار تشريعات الخصوصية الخاصة باللائحة العامة لحماية البيانات، تولى الاتحاد الأوروبي زمام المبادرة ومن المرجح أن يؤثر بشكل كبير على تشريعات الذكاء الاصطناعي المستقبلية في جميع أنحاء العالم.
يتبنى القانون نهجًا أفقيًا، حيث ينظم الذكاء الاصطناعي سواء كان عرضًا مستقلاً أو مدمجًا في الأجهزة. كما يتبنى نهجًا لدورة الحياة، من التطوير الأولي إلى الاستخدام إلى المراقبة بعد التسويق، مع وقوع غالبية الالتزامات على عاتق المطورين أو مقدمي الأنظمة عالية المخاطر، بالإضافة إلى بعض المستخدمين (مستخدمي أنظمة الذكاء الاصطناعي عالية المخاطر).
يركز القانون على إدارة المخاطر، ومعالجة ثلاثة مجالات رئيسية للمخاطر: المخاطر غير المقبولة، وحالات الاستخدام عالية المخاطر، والنماذج الأساسية مثل نماذج اللغة الكبيرة (LLM) أو الذكاء الاصطناعي للأغراض العامة (GPAI).
قانون الذكاء الاصطناعي والبيانات في كندا (AIDA)
تدرس كندا اقتراحًا من شأنه تنظيم أنظمة الذكاء الاصطناعي والحماية من الأضرار المحتملة، بما في ذلك الأضرار الناجمة عن التحيز النظامي. ومثل الاتحاد الأوروبي، سينصب التركيز على الأنظمة ذات التأثير العالي، بما في ذلك فحص الوظائف، وسيتطلب الإشراف البشري، واختبار التحيز، والمراقبة، من بين تدابير أخرى. ايدا تتحرك حاليًا خلال العملية لتحديد التشريع النهائي بشكل أفضل.
القوانين الأمريكية الجديدة والقوانين الحالية
في أكتوبر/تشرين الأول الماضي، أصدر الرئيس بايدن قرارًا الأمر التنفيذي وتسعى العديد من الدول إلى وضع إرشادات بشأن سلامة الذكاء الاصطناعي وأمنه، والخصوصية، والمساواة والحقوق المدنية، وحماية المستهلك والعامل، والابتكار والمنافسة. كما تدرس العديد من الدول سن تشريعات حول كيفية تنظيم الذكاء الاصطناعي.
في يوليو 2023، مدينة نيويورك دخل قانون حيز التنفيذ يؤثر على أصحاب العمل الذين يستخدمون أدوات اتخاذ القرار الآلي للتوظيف (AEDT)، والتي تشمل الذكاء الاصطناعي، لفحص المتقدمين والموظفين. يسري القانون إذا استخدم صاحب العمل أداة اتخاذ القرار الآلي للتوظيف (AEDT) “للمساعدة بشكل كبير” أو استبدال القرار التقديري للإنسان.
في كاليفورنيا، وكالة حماية الخصوصية في كاليفورنيا لقد وافقت لجنة السياسات العامة في فنزويلا (CPPA) للتو على مسودة لائحة بشأن أدوات اتخاذ القرار الآلية. ومرة أخرى، ينصب التركيز على الأدوات التي تسهل بشكل كبير عملية اتخاذ القرار البشري فيما يتعلق بالقرارات المهمة، مثل التوظيف والتعويضات والترقيات والإنهاء.
في إلينوي، قانون مقابلة الفيديو بالذكاء الاصطناعي يتطلب من أصحاب العمل الذين يستخدمون تكنولوجيا الذكاء الاصطناعي والتحليل لفحص المتقدمين للوظائف أن يكونوا شفافين، والحصول على الموافقة أو السماح بالانسحاب، وإجراء اختبارات التحيز.
وعلى المستوى الفيدرالي، تدرس لجنة تكافؤ فرص العمل استخدام الذكاء الاصطناعي في التوظيف. وتساعد اللجنة في إنفاذ قوانين عدم التمييز مثل الباب السابع من قانون الحقوق المدنية لعام 1964، الذي يحظر عمومًا التمييز في التوظيف على أساس العرق أو اللون أو الدين أو الجنس أو الأصل القومي.
للمساعدة في تقييم ما إذا كان قرار التوظيف تمييزيًا، تعتمد لجنة تكافؤ فرص العمل على مجموعة من المبادئ التوجيهية الموحدة لقرارات الاختيار تم تبني هذه المبادئ التوجيهية في عام 1978. تنطبق هذه المبادئ التوجيهية عندما يستخدم صاحب العمل إجراء اختيار لاتخاذ قرارات التوظيف، مثل التوظيف والترقية وإنهاء الخدمة. وهي توفر إرشادات حول كيفية قيام أصحاب العمل بإجراء تقييمات تحيزية لإجراءات الاختيار هذه لضمان عدم وجود تأثير سلبي غير مبرر على مجموعة معينة.
في مايو 2023، نشرت لجنة تكافؤ فرص العمل وثيقة المساعدة الفنية تتعلق هذه المبادئ التوجيهية بشكل مباشر بالذكاء الاصطناعي. وقد أوضحت لجنة تكافؤ فرص العمل أن المبادئ التوجيهية الموحدة تنطبق على الذكاء الاصطناعي – على وجه التحديد، على أدوات اتخاذ القرار الخوارزمية عندما تُستخدم لاتخاذ أو إبلاغ القرارات بشأن ما إذا كان ينبغي توظيف أو ترقية أو إنهاء الخدمة.
كيف يمكن لأصحاب العمل الاستعداد
أفضل طريقة للاستعداد للتغييرات التنظيمية هي ترتيب منزلك. والأمر الأكثر أهمية هو وجود هيكل حوكمة الذكاء الاصطناعي والبيانات. يجب أن يكون هذا جزءًا من دورة حياة تطوير المنتج الإجمالية حتى تفكر في كيفية استخدام البيانات الذكاء الاصطناعي يتم استخدامها منذ البداية. تتضمن بعض أفضل الممارسات للحوكمة ما يلي:
-
تشكيل لجنة متعددة الوظائف لتقييم الاستخدام الاستراتيجي للبيانات ومنتجات الذكاء الاصطناعي
-
التأكد من أن لديك خبراء من مجالات مختلفة يعملون معًا لتصميم خوارزميات تنتج مخرجات ذات صلة ومفيدة ومتوافقة
-
تنفيذ برنامج تقييم المخاطر لتحديد المخاطر التي تشكل مشكلة لكل حالة استخدام
-
تنفيذ خطة اتصال داخلية وخارجية لإعلام المستخدمين بكيفية استخدام الذكاء الاصطناعي في شركتك والضمانات التي وضعتها.
لقد أصبح الذكاء الاصطناعي عاملاً تنافسياً مهماً في تطوير المنتجات. ومع قيام الشركات بتطوير برنامج الذكاء الاصطناعي الخاص بها، يتعين عليها الاستمرار في الالتزام بالمبادئ التوجيهية المسؤولة والأخلاقية لمساعدتها على البقاء متوافقة مع التشريعات الحالية والناشئة. وستكون الشركات التي تتبع أفضل الممارسات للاستخدام المسؤول للذكاء الاصطناعي في وضع جيد للتعامل مع القواعد الحالية والتكيف مع تطور اللوائح.