ما الذي يمكن أن يفعله مدير تكنولوجيا المعلومات بشأن تحيز الذكاء الاصطناعي؟
على الرغم من أن خوارزميات الذكاء الاصطناعي توفر القدرة على التنبؤ بالأنماط، إلا أنها تجلب أيضًا في العديد من الصناعات جوانب سلبية مؤسفة – مثل تفاقم تأثيرات التحيز الحالي. تقوم بعض خوارزميات الذكاء الاصطناعي بتوجيه البيانات لصالح مجموعة أو أخرى، ويمكن أن يؤدي ذلك إلى التمييز عندما يتعلق الأمر بطلبات العمل والموافقات على الرهن العقاري، فضلاً عن الأهلية للحصول على علاجات الرعاية الصحية والقبول في الجامعات.
الأمثلة تتراكم. كيف يمكن للمؤسسات أن تدرك عندما تكون التكنولوجيا التي تستخدمها تمييزية، وماذا تفعل حيال ذلك؟
التحيز للداخل، التحيز للخارج
في العام الماضي، تم توفير الخدمات السحابية لتطبيقات التمويل والموارد البشرية تمت مقاضاة يوم العمل في دعوى جماعية شكوى بزعم بناء أدوات فحص الوظائف بالذكاء الاصطناعي (AI) والتي تسببت في التحيز ضد المتقدمين للوظائف السود في الأربعينيات من العمر. المحكمة الجزئية الأمريكية للمنطقة الشمالية من كاليفورنيا رفض القضية في 19 يناير 2024، لعدم كفاية الأدلة. لكن المدعي ديريك ل. موبلي قدم دعوى قضائية شكوى معدلة في 20 فبراير، قائلًا إن أدوات فحص التطبيقات القائمة على الخوارزميات في Workday كانت متحيزة ضد الأشخاص على أساس العرق والعمر والإعاقة. تم رفض موبلي لأكثر من 100 وظيفة تقدم لها أثناء استخدام برنامج Workday، وفقًا لتقرير صادر عن موقع Workday. رويترز.
وفي بيان، قال متحدث باسم Workday لـ InformationWeek: “نعتقد أن هذه الدعوى القضائية ليس لها أي أساس وننكر الادعاءات والتأكيدات الواردة في الشكوى المعدلة. نحن لا نزال ملتزمين بالذكاء الاصطناعي المسؤول”.
وفي الوقت نفسه، تحقيق أجرته منظمة إخبارية غير ربحية العلامات كشفت أن 80% من السود، و40% من اللاتينيين، و70% من الأمريكيين الأصليين من المحتمل أن يتم رفضهم للحصول على قروض الإسكان بسبب تحيز الذكاء الاصطناعي.
في مجال التعلم الآلي، هناك اتجاه نحو “القمامة التي تدخل وتخرج القمامة”، كما يشير دانييل س. شيف، الأستاذ المساعد في قسم العلوم السياسية والمدير المشارك لمختبر الحوكمة والذكاء الاصطناعي المسؤول (GRAIL) في جامعة بوردو. ويوضح أنه إذا كانت البيانات تأتي من عالم متحيز، فإن البيانات سوف تكرر هذا التحيز، كما يقول شيف. ويمكن أن ينطبق هذا المفهوم على أنماط التوظيف وكذلك الموافقات على القروض، وفقًا لشيف.
يقول شيف: “إذا كنت قد منحت قروضًا فقط للأشخاص X أو قمت بتعيين أشخاص مثل الأشخاص Y فقط، فقد يقوم نموذجك بإعادة إنتاج ذلك نوعًا ما، لأنه تم تدريبه على الاعتقاد بأن هذه هي المطابقات”.
يوضح شيف أن الخوارزميات تحول البيانات إلى نماذج، وتنتج النماذج تنبؤات قد تكون متحيزة.
يقول شيف: “إذا كانت للتنبؤات تحيزات واضحة على الفور، فقد يكون ذلك بسبب البيانات أو الخوارزمية”. “هناك طرق يمكننا من خلالها تقييد النموذج للعمل بطرق أفضل.”
ويعتقد خبراء مثل فريد مورستاتر، الأستاذ المساعد لعلوم الكمبيوتر في جامعة جنوب كاليفورنيا، أن كل أنظمة الذكاء الاصطناعي متحيزة. غوراف أغاروال، الرئيس التنفيذي ومؤسس منصة اختبار الذكاء الاصطناعي RagaAIيرى أيضًا أن تحيز الذكاء الاصطناعي منتشر في كل مكان، بما في ذلك نماذج اللغات الكبيرة (LLMs)، والذكاء الاصطناعي التوليدي، ورؤية الكمبيوتر، التي تدمجها كاميرات المراقبة بالفيديو وتقنية التعرف على الوجه.
يقول أغاروال لمجلة InformationWeek: “في أي مكان نشهد فيه انتشار الذكاء الاصطناعي، فإننا نشهد شكلاً من أشكال التحيز”. “أود أن أقول أنه منتشر للغاية.”
كيفية البحث عن انحياز الذكاء الاصطناعي وإصلاحه
تعمل جامعة جنوب كاليفورنيا على قياس كيفية تحقيق العدالة الإحصائية أثناء استخدام الذكاء الاصطناعي والذكاء الاصطناعي تحديد التحيزات في LLMsيقول مورستاتر. لقياس التحيز، تستخدم جامعة جنوب كاليفورنيا أساليب الحث والصندوق الزجاجي، والتي تتسم بالشفافية تمامًا للمستخدمين ويمكن تفسيرها بسهولة مقارنةً بالصندوق الأسود للذكاء الاصطناعي.
استخدمت الجامعة مجموعة من الخوارزميات تسمى خوارزميات تنوع الجودة (QD) لسد الثغرات في بيانات التدريب وإنشاء مجموعات بيانات أكثر تنوعًا. لقد قامت ببناء مجموعة بيانات متنوعة تضم حوالي 50000 صورة في 17 ساعة. ومن خلال تنويع مجموعة البيانات، أنتجت مجموعة البحث دقة محسنة على الوجوه ذات ألوان البشرة الداكنة، حسبما قال المؤلف الرئيسي ألين تشانغ، وهو أحد كبار طلاب جامعة جنوب كاليفورنيا، في بحث. مشاركة مدونة.
يمكن لأدوات مثل AI Fairness 360 (AIF360) من IBM أن تخبر قادة تكنولوجيا المعلومات إلى أي مدى تكون نماذج الذكاء الاصطناعي الخاصة بهم متحيزة تجاه مجموعة من الأشخاص مقابل مجموعة أخرى. أداة RagaAI تسمى RagaAI الحمض النووييحدد التحيزات في نماذج الذكاء الاصطناعي من خلال التدريب على مجموعة بيانات متعددة الوسائط. يمكن للمؤسسات تدريب RagaAI DNA بشكل مخصص لاختبار أوصاف المنتجات ومراجعات العملاء في مجال البيع بالتجزئة، وبيانات الموقع في التطبيقات الجغرافية المكانية، والسجلات والصور الطبية في مجال الرعاية الصحية.
بالإضافة إلى ذلك، أداة جوجل ماذا لو يحلل سلوك نماذج التعلم الآلي المدربة.
ماذا تفعل عندما تدرك أن الذكاء الاصطناعي متحيز
عندما يكتشف قادة تكنولوجيا المعلومات أنهم يستخدمون الذكاء الاصطناعي المتحيز، يجب عليهم إعادة تدريب الخوارزميات أو إعادة تدريسها، كما يوضح الدكتور ديفيد إيبرت، مدير مركز تكنولوجيا المعلومات. معهد البيانات للتحديات المجتمعية في جامعة أوكلاهوما. بالإضافة إلى ذلك، يجب عليهم إعادة تقييم القرارات التي استندت إلى خوارزميات الذكاء الاصطناعي.
يقول أغاروال إنه ينبغي على الشركات تشخيص أصل المشكلة بشكل منهجي، بما في ذلك المكان الذي يقوم فيه الذكاء الاصطناعي ببناء البيانات وإخراجها.
بالإضافة إلى ذلك، يجب على قادة تكنولوجيا المعلومات استخدام بيانات التدريب ذات الصلة بثقافات متعددة، كما يقترح أغاروال. في أحد الأمثلة، أظهر ChatGPT تحيزًا تجاه ثقافات معينة عندما أعطى نصيحة البقشيش غير صحيحة بالنسبة لإسبانيا، والتي تكون اتجاهاتها أقل من معدلات البقشيش في الولايات المتحدة.
يقول أغاروال: “جاء هذا التحيز لأن البشر الذين اعتادوا تدريب البيانات كانوا يبحثون في المقام الأول عن بيانات من ثقافة معينة”.
ويشرح كيف أن الخوارزميات الموجودة في كاميرات الفيديو الخاصة بالسيارات قد لا تكون قادرة على اكتشاف جميع الظروف الجوية لأنها في بعض الأحيان تعمل بشكل جيد فقط في الإضاءة الجيدة خلال النهار ولكن ليس بشكل جيد عند الفجر أو الغسق.
يقول أغاروال: “لقد كان قادرًا على اكتشاف السيارات والمشاة خلال يوم جيد، ولكن ليس بشكل جيد أثناء الإضاءة المنخفضة، في المساء، على سبيل المثال”. “إن الذكاء الاصطناعي في هذه الحالة يعمل بشكل مشابه جدًا لما كان البشر قادرين على رؤيته.”
وفقًا لأغاروال، يمكن أن يساعد تدريب الذكاء الاصطناعي في التغلب على هذا الخلل.
يقول أغاروال: “لقد كانت مشكلة عدم توازن البيانات ومشكلة التدريب النموذجي”. استخدمت شركة صناعة السيارات أداة RagaAI لتشخيص هذا التحيز وإصلاحه.
التدقيق والشفافية و”التوريد المستدام”
يمكن أن يؤدي وضع العلامات الشفافة إلى كشف تحيز الذكاء الاصطناعي. يقول إيبرت، تمامًا كما تحتوي المنتجات الغذائية في متجر البقالة على ملصقات غذائية تحتوي على المكونات ومعلومات التغذية، يجب أن تتمتع منتجات الذكاء الاصطناعي أيضًا بشفافية وتفسيرات مماثلة. يمكن أن يساعد هذا التصنيف الشفاف في كشف تحيز الذكاء الاصطناعي.
يقول إيبرت: “وبالمثل، يمكن إنشاء معايير للتدريب والتفسيرات حتى يعرف المستخدم متى يستخدم الذكاء الاصطناعي الجدير بالثقة للبيانات التي يفحصها”.
ولتجنب اعتماد أداة الذكاء الاصطناعي التي يتبين أنها متحيزة، يوصي أغاروال بـ “المصادر المستدامة”، حيث يجب على قادة التكنولوجيا التأكد من أنهم يحصلون على أدوات مشروعة، وفقا لأغاروال.
“إذا كنت مدير تكنولوجيا المعلومات أو مدير التكنولوجيا الذي يقوم بتوفير هذا الذكاء الاصطناعي، فأنا أريد التأكد من أن البائع لديه جميع الضوابط والتوازنات الصحيحة، وجميع العمليات الصحيحة، وجميع الأدوات المناسبة لتطوير الذكاء الاصطناعي الخاص به، والذي يقول أغاروال: “إنها ليست متحيزة”. “أعتقد أن هذا مهم جدًا.”
يقول أغاروال إنه يجب على قادة تكنولوجيا المعلومات إجراء فحوصات خلفية والبحث عن أدوات الذكاء الاصطناعي التي ينشرونها واستخدام أطر تقييم التحيز.
بمجرد قيام الشركات بنشر الذكاء الاصطناعي، فإنها تحتاج إلى إجراء تدقيق ومراقبة مستمرين للتأكد من أن الذكاء الاصطناعي لا يحتوي على تحيز. ينصح أغاروال الشركات أيضًا بجعل تجنب تحيز الذكاء الاصطناعي أمرًا مهمًا للمؤسسة مثل ميثاق التنوع والإنصاف والشمول (DEI).
لتجنب تحيز الذكاء الاصطناعي، تأكد من أن البيانات التي يتم إدخالها في عملية الذكاء الاصطناعي متوافقة مع خصائص بيانات التدريب، وفقًا لإيبرت.
يقول إيبرت: “على سبيل المثال، إذا تم تدريب خوارزمية التعلم الآلي للتنبؤ بمبيعات مكيفات الهواء بناءً على المبيعات في شيكاغو، وكنت تتقدم بطلب للحصول على بياناتك الخاصة بلاس فيغاس، فقد تحصل على تنبؤات متحيزة وغير صحيحة”.
ويقول شيف إن الشركات بحاجة إلى التأكد من أن البيانات تمثل مجموعات سكانية متنوعة.
يوضح شيف: “إذا كانت لديك مجموعة بيانات وتم تدريبها على وجوه الرجال البيض فقط، فمن المحتمل ألا تكون جيدة في تصوير التشخيص الطبي كما لو كانت تحتوي على عدد أكبر من السكان”. “لذا قد تحاول جمع المزيد من البيانات التمثيلية أو التأكد من أنها ذات صلة بالسكان الذين تخدمهم.”
وفي الوقت نفسه، يمكن لقادة تكنولوجيا المعلومات التحقق من قاعدة بيانات حوادث الذكاء الاصطناعي لمعرفة ما إذا كان قد تم الإبلاغ عن أن الأداة التي يخططون لاستخدامها متحيزة للذكاء الاصطناعي.
يقول شيف، إنه كجزء من عملية التدقيق، يمكن لقادة الأعمال التحدث مع العديد من أصحاب المصلحة والخبراء المتخصصين لمناقشة الترميز وراء الخوارزميات لاختبار الرفاهية، أو حقوق الإنسان، أو تأثير الخوارزميات.
يقول شيف: “توجد بشكل أساسي عملية تدقيق وتفكير عميقة تحتاج إليها بالإضافة إلى بعض الاستراتيجيات الفنية السريعة التي يمكنها فهم بعض الأشياء الأساسية”.
بالإضافة إلى ذلك، يجب أن يكون لدى الشركات هيكل لإدارة المخاطر أو الحوكمة لضمان أن يكون تصميم وتنفيذ نماذج الذكاء الاصطناعي مسؤولاً، كما ينصح شيف.
للحصول على إرشادات، يمكن للشركات استشارة إطار إدارة المخاطر NIST (RMF)، يقول شيف. يصف شيف RMF بأنه “أقوى جهد أمريكي” لمكافحة التحيز في مجال الذكاء الاصطناعي. يمكن للشركات أيضًا أن تفكر في توظيف علماء الأخلاق أو خبراء السياسة لتنظيم تحيزات الذكاء الاصطناعي.
ال IEEE لديه مجموعة عمل التحيز الخوارزمي للحماية من التحيز. توصي NIST بأن تقوم قطاعات الصناعة بإنشاء “ملفات تعريف” فردية لحاملي شهادة LLM. ويتوقع شيف أن الوكالات الحكومية للنقل والرعاية الصحية لديها إرشاداتها الخاصة بشأن الذكاء الاصطناعي، وسوف تنتقل من التوجيه إلى قواعد أكثر رسمية.
ينصح شيف، عند تقييم أدوات الذكاء الاصطناعي، بالحفاظ على بعض الشك.
يقول شيف: “إذا قال أي شخص إن منتجاتنا خالية من التحيز، فهذه علامة حمراء”. “إنها ليست الطريقة التي تعمل بها الأشياء.”
عندما تتمكن الشركات من التحقق من أن مؤسسة مثل IEEE قامت بمراجعة أدوات الذكاء الاصطناعي الخاصة بها أو أنها تمتثل لـ قانون الذكاء الاصطناعي للاتحاد الأوروبي، فيمكن اعتبارها عادلة أو مشروعة، كما يقترح شيف.