متى يجب أن تقلب اتخاذ القرارات البشرية منظمة العفو الدولية؟

يمكن أن تصل الذكاء الاصطناعي ، على الرغم من قوتها المعرفية ، في بعض الأحيان إلى بعض الاستنتاجات الغبية والخطيرة حقًا. عندما يحدث هذا ، يعود الأمر إلى البشر لتصحيح الأخطاء. ولكن كيف ومتى ومن الذي يجب أن يتم إلغاء قرار الذكاء الاصطناعي؟
يقول Nimrod Partush ، نائب رئيس علوم البيانات في شركة Cye Cye ، إن البشر يجب أن يمتلكوا دائمًا القدرة على إلغاء قرارات الذكاء الاصطناعي. ويشار إلى أن “أنظمة الذكاء الاصطناعى يمكن أن ترتكب أخطاء أو تنتج استنتاجات معيبة ، ويشار إليها أحيانًا باسم الهلوسة”. ويوضح في مقابلة عبر البريد الإلكتروني: “السماح بالرقابة البشرية يثقون”.
لا يصبح إلغاء الذكاء الاصطناعى فقط غير مبرر تمامًا في بيئات شديدة معينة يُعرف فيها الأداء البشري بأنه أقل موثوقية-مثل التحكم في طائرة تسافر في Mach 5. “في حالات الحافة النادرة ، قد نرغب في منظمة العفو الدولية في الوقت الفعلي ثم مراجعة قرارات شاملة بعد الحقيقة” ، كما يقول Partush.
هيذر باسيت ، كبير المسؤولين الطبيين في Xsolis ، وهي شركة تكنولوجيا الرعاية الصحية التي تحركها الذكاء الاصطناعي ، تدعو إلى أنظمة الإنسان في الحلقة، خاصة عند العمل مع الذكاء الاصطناعي. وتقول في مقابلة عبر الإنترنت: “على الرغم من أن البشر يجب أن يحتفظوا بالقدرة على إلغاء قرارات الذكاء الاصطناعي ، إلا أنهم يجب أن يتبعوا سير العمل المهيكلة التي تلتقط الأساس المنطقي وراء التجاوز”. القرارات المخصصة تخاطر بتقويض الاتساق والكفاءة الذكاء الاصطناعي يهدف إلى توفير. “مع عمليات واضحة ، يمكن للمؤسسات الاستفادة من نقاط قوة الذكاء الاصطناعى مع الحفاظ على الحكم الإنساني لسيناريوهات المخاطر الدقيقة أو عالية المخاطر.”
اكتشاف القرار
يتطلب اكتشاف قرار الذكاء الاصطناعي السيئ نظام مراقبة قوي لضمان محاذاة النموذج مع مقاييس الأداء المتوقعة. يقول باسيت: “يتضمن ذلك تنفيذ خطوط أنابيب تقييم الأداء للكشف عن الحالات الشاذة ، مثل انجراف النموذج أو التدهور في المقاييس الرئيسية ، مثل الدقة أو الدقة أو الاستدعاء”. “على سبيل المثال ، يجب أن يؤدي التغيير المحدد في عتبات الأداء إلى أن يؤدي إلى تنبيهات وبروتوكولات التخفيف.” يمكن للمراقبة الاستباقية التأكد من تحديد أي انحرافات ومعالجتها قبل أن تتمكن من تدهور جودة الإخراج أو تأثير المستخدمين النهائيين. “هذا النهج يحمي موثوقية النظام ويحافظ على التوافق مع الأهداف التشغيلية.”
عادةً ما يتم تجهيز الخبراء ومصممي الذكاء الاصطناعي بشكل جيد لاكتشاف الأخطاء التقنية ، ولكن يمكن للمستخدمين العاديين المساعدة أيضًا. يقول Partush: “إذا كان العديد من المستخدمين يعبرون عن قلقهم أو الارتباك – حتى في الحالات التي يكون فيها الذكاء الاصطناعى صحيحة تقنيًا – فإنه يعلق انفصالًا بين إخراج النظام وعرضه”. “هذه التعليقات أمر بالغ الأهمية لتحسين النموذج ليس فقط ، ولكن أيضًا كيف يتم توصيل نتائج الذكاء الاصطناعي.”
صناع القرار
يلاحظ ميليسا روزي ، مديرة الذكاء الاصطناعي في شركة SaaS Security Company Appomni ، عبر البريد الإلكتروني دائمًا ، من المناسب دائمًا للبشر أن يقللوا من قرارات الذكاء الاصطناعي ، ميليسا روزي ، مديرة الذكاء الاصطناعي في شركة SaaS Security Company Appomni ، عبر البريد الإلكتروني. “المفتاح هو أن الإنسان يجب أن يكون لديه معرفة كافية بالموضوع ليكون قادرًا على معرفة سبب إلغاء القرار”.
Partush تتفق. ويذكر أن المستخدم النهائي هو وضع مكالمة الحكم النهائية ، كما يقول. “في معظم الظروف ، لا تريد إزالة السلطة البشرية – القيام بذلك يمكن أن يقوض الثقة في النظام.” والأفضل من ذلك ، كما يقول Partush ، يجمع بين رؤى المستخدم والتعليقات من الخبراء ومصممي الذكاء الاصطناعى ، والتي يمكن أن تكون ذات قيمة كبيرة ، لا سيما في سيناريوهات المخاطر العالية.
يعتمد قرار تجاوز إخراج الذكاء الاصطناعى على نوع الإخراج ، ومقاييس أداء النموذج ، والمخاطر المرتبطة بالقرار. يقول باسيت: “بالنسبة للنماذج الدقيقة للغاية – على سبيل المثال ، أكثر من 98 ٪ – قد تحتاج إلى موافقة المشرف قبل التجاوز”. بالإضافة إلى ذلك ، في مجالات المخاطر العالية مثل الرعاية الصحية ، حيث يمكن أن يؤدي القرار الخاطئ إلى الضرر أو الوفاة ، من الضروري إنشاء بيئة تتيح للمستخدمين إثارة المخاوف أو تجاوز الذكاء الاصطناعي دون خوف من التداعيات ، كما تنصح. “إعطاء الأولوية للسلامة يعزز ثقافة الثقة والمساءلة.”
بمجرد أن يتم إلغاء قرار ، من المهم توثيق الحادث ، والتحقيق فيه ، ثم إطعام النتائج مرة أخرى إلى الذكاء الاصطناعي أثناء إعادة التدريب ، كما يقول Partush. “إذا أظهرت الذكاء الاصطناعى مرارًا وتكرارًا الحكم الضعيف ، فقد يكون من الضروري تعليق استخدامه والبدء في عملية إعادة تصميم أو إعادة هندسة عميقة.”
اعتمادًا على تعقيد الموضوع ، قد يكون من الضروري تشغيل الإجابة من خلال AIS الأخرى ، ما يسمى “قضاة الذكاء الاصطناعي”. عندما يتم تورط البيانات ، هناك أيضًا أساليب أخرى ، مثل فحص البيانات في المطالبة. في نهاية المطاف ، يمكن استدعاء الخبراء لمراجعة الإجابة ثم استخدام التقنيات ، مثل الهندسة الفوري أو التعلم التعزيز ، لضبط النموذج.
بناء الثقة
يتطلب بناء ثقة الذكاء الاصطناعي الشفافية وحلقات التغذية المرتدة المستمرة. يقول Partush: “إن الذكاء الاصطناعى الذي يواجه تحديًا وتحسين بالتعاون مع البشر سيكون في النهاية أكثر موثوقية وجدارة بالثقة وفعالية”. “إن إبقاء البشر في السيطرة – وإطلاع – يخلق أفضل مسار للأمام لكل من الابتكار والسلامة.”