تفرض لجنة التجارة الفيدرالية (FTC) حظرًا على استخدام تقنية التعرف على الوجه بالذكاء الاصطناعي الخاصة بشركة Rite Aid
قالت لجنة التجارة الفيدرالية الأمريكية (FTC) يوم الثلاثاء إن شركة Rite Aid أساءت استخدام نظام التعرف على الوجه بالذكاء الاصطناعي والذي قام عن طريق الخطأ بوضع علامة على العملاء – غالبًا ما يكونون أمريكيين من أصل أفريقي ولاتيني ونساء – على أنهم لصوص من المتاجر.
تقول شكوى لجنة التجارة الفيدرالية أنه في الفترة من 2012 إلى 2020، استخدمت Rite Aid تقنية معيبة للتعرف على الوجه لتحديد سارقي المتاجر المحتملين بناءً على صور الكاميرا الأمنية. تزعم لجنة التجارة الفيدرالية (FTC) أن Rite Aid فشلت في اتخاذ تدابير معقولة لحماية المستهلكين الأبرياء، الذين اتُهم العديد منهم خطأً بارتكاب مخالفات بعد أن قام برنامج الذكاء الاصطناعي بوضع علامة على شخص ما باعتباره سارقًا للمتاجر أو “مثيرًا للمشاكل” بناءً على صور أمنية سابقة. وتقول لجنة التجارة الفيدرالية إن التكنولوجيا تم نشرها دون معرفة العملاء في المتاجر في العديد من المدن الأمريكية الكبرى.
وقال صامويل ليفين، مدير مكتب حماية المستهلك التابع للجنة التجارة الفيدرالية، في بيان: “إن استخدام Rite Aid المتهور لأنظمة مراقبة الوجه ترك عملائها يواجهون الإذلال والأضرار الأخرى، كما أن انتهاكات أوامرها تعرض المعلومات الحساسة للمستهلكين للخطر”. “… ستكون اللجنة يقظة في حماية الجمهور من المراقبة البيومترية غير العادلة وممارسات أمن البيانات غير العادلة.”
وافقت Rite Aid على تسوية الاتهامات من خلال تنفيذ ضمانات شاملة لمنع حدوث إخفاقات مماثلة في الذكاء الاصطناعي في المستقبل. وقالت لجنة التجارة الفيدرالية في بيان لها إن التسوية تتطلب أيضًا من شركة Rite Assistance التوقف عن استخدام هذه التكنولوجيا إذا لم تتمكن من السيطرة على المخاطر المحتملة.
وافقت شركة Rite Aid، التي هي الآن في خضم إجراءات الإفلاس، على الحظر الذي فرضته لجنة التجارة الفيدرالية، لكنها لم توافق على النتائج التي توصلت إليها اللجنة. وقالت الشركة في بيان صحفي: “نحن نحترم تحقيق لجنة التجارة الفيدرالية ونتوافق مع مهمة الوكالة لحماية خصوصية المستهلك”. “ومع ذلك، فإننا نختلف بشكل أساسي مع مزاعم التعرف على الوجه في شكوى الوكالة. وتتعلق الادعاءات ببرنامج تجريبي لتكنولوجيا التعرف على الوجه نشرته الشركة في عدد محدود من المتاجر.
تستمر شركة Rite Aid في القول إنها توقفت عن استخدام التكنولوجيا منذ أكثر من ثلاث سنوات، قبل إجراء تحقيق لجنة التجارة الفيدرالية. وقالت الشركة: “يسعدنا التوصل إلى اتفاق مع لجنة التجارة الفيدرالية ووضع هذا الأمر وراءنا”.
خط الأساس للعدالة
أصدر مفوض لجنة التجارة الفيدرالية ألفارو بيدويا بيانًا يوضح بالتفصيل إخفاقات منظمة Rite Aid في مجال الذكاء الاصطناعي، مشيرًا إلى “الحقيقة الواضحة المتمثلة في أن المراقبة يمكن أن تؤذي الناس”. وأشار إلى أمثلة محددة، بما في ذلك التهمة بأن أحد موظفي Rite Aid أوقف فتاة تبلغ من العمر 11 عامًا وفتشها بسبب تطابق زائف، وحوادث أخرى لأشخاص قاموا بتفتيشهم واتهامهم وطردهم من المتاجر بشكل خاطئ.
وكتب بيدويا: “لقد كان من الواضح منذ سنوات أن أنظمة التعرف على الوجه يمكن أن تعمل بشكل أقل فعالية بالنسبة للأشخاص ذوي البشرة الداكنة والنساء”. “على الرغم من ذلك، نزعم أن Rite Aid كانت أكثر عرضة لنشر مراقبة الوجه في المتاجر الموجودة في المناطق غير البيضاء أكثر من المناطق الأخرى. ثم فشلت Rite Aid في اتخاذ بعض الاحتياطات الأساسية.
وقال إن الشركة لم تأخذ في الاعتبار سوى اثنين من المخاطر عند تنفيذ النظام: اهتمام وسائل الإعلام وقبول العملاء.
وقال بيدويا إن التسوية تنتج خطًا أساسيًا للمعايير التي ينبغي أخذها في الاعتبار عند تنفيذ “برنامج عدالة خوارزمي شامل”.
وكتب: “لا ينبغي لأحد أن يبتعد عن هذه التسوية معتقدًا أن المفوضية تدعم بشكل إيجابي استخدام المراقبة البيومترية في البيئات التجارية”. “… هناك حجة سياسية قوية مفادها أن هناك بعض القرارات التي لا ينبغي أتمتتها على الإطلاق… وأنا أحث المشرعين الذين يريدون رؤية قدر أكبر من الحماية ضد المراقبة البيومترية على كتابة هذه الحماية في التشريعات وسنها في شكل قانون.”
ما يحتاج قادة تكنولوجيا المعلومات إلى معرفته
يعد تحيز الذكاء الاصطناعي أحد المخاوف الرئيسية المحيطة بسلامة الذكاء الاصطناعي، ولكن غالبًا ما تطغى عليه مخاوف أكثر خيالية من يوم القيامة تتعلق بالتكنولوجيا الناشئة. لكن المخاوف بشأن استخدام الذكاء الاصطناعي كأداة للتوظيف، على سبيل المثال، تغذي المخاوف بشأن التحيز والسلامة.
قال جيف شيفر، رئيس قسم الذكاء الاصطناعي المسؤول في Booz Allen، في مقابلة عبر البريد الإلكتروني، إن المؤسسات تعاني من عدم وجود حواجز حماية مسؤولة للذكاء الاصطناعي. “نحن نفكر في الذكاء الاصطناعي المسؤول كصيغة: الذكاء الاصطناعي المسؤول يساوي الأخلاق بالإضافة إلى الحوكمة والسلامة… هناك حواجز حماية أساسية يجب على المؤسسات وضعها لضمان أن استخدام الذكاء الاصطناعي لديها يكون أخلاقيًا ومُدارًا بشكل جيد وآمن للعملاء.”
يقول شيفر إن العام المقبل سيكون عامًا مهمًا لسلامة الذكاء الاصطناعي.
“لقد أصبح الذكاء الاصطناعي الآن ناضجًا بما فيه الكفاية لدرجة أن عدم وجود مثل هذه الحواجز الأمنية سيشكل إهمالًا من قبل المنظمة، لذلك أعتقد أنه من المفيد استخدام مصطلح “الإهمال” بشكل صريح في هذه الحالة. سيكون عام 2024 هو العام الذي يجب أن تنتقل فيه المؤسسات من “صفر إلى واحد” في قدرتها المسؤولة على الذكاء الاصطناعي حتى تتمكن من تنفيذ عملها بطرق مسؤولة بشكل قابل للقياس.
يقول فار شانكار، المدير التنفيذي لمعهد RAI، لموقع InformationWeek: “يعد هذا الأمر انعكاسًا مستمرًا لتوقعات لجنة التجارة الفيدرالية (FTC) بأن تستخدم المؤسسات الأنظمة الآلية بشكل مسؤول. ومع انتشار الذكاء الاصطناعي في كل مكان، فمن الأهمية بمكان أن تعمل المؤسسات على تحسين حوكمة الذكاء الاصطناعي ومراقبته وجهود تخفيف المخاطر بشكل مستمر.