أخبار التقنية

يحتاج دفع الذكاء الاصطناعي للحكومة إلى مساءلة واضحة


ومع ذلك ، هناك فيل كبير في الغرفة. دون واضح أطر المساءلة، تخاطر خريطة الطريق التي تبلغ 50 نقطة بأن تصبح قصة تحذيرية بدلاً من قصة نجاح. عندما يهلل نظام الذكاء الاصطناعي ، يظهر تحيزًا أو يعاني من خرق أمني ، من يتحمل المسؤولية؟ في الوقت الحالي ، غالبًا ما تكون الإجابة “تعتمد” ، وهذا عدم اليقين هو أكبر تهديد للابتكار.

في الواقع ، بعد أن عملت في جميع القطاعات الحكومية والتعليمية والتجارية لأكثر من عقدين ، رأيت كيف يمكن أن تعرقل الفجوات للمساءلة حتى البرامج الرقمية الأكثر حساسية. ال دفع الحكومة من الذكاء الاصطناعي لن تكون مختلفة إلا إذا أصبحنا جادين في إنشاء خطوط واضحة من المسؤولية من المشتريات حتى النشر.

لماذا شفافية المشتريات ليست اختيارية

في كثير من الأحيان ، تلتزم فرق المشتريات بأدوات الذكاء الاصطناعى دون فهم نماذج البيانات التي يتم تدريبها ، أو كيف يتم اتخاذ القرارات أو ما إذا كانت الذكاء الاصطناعى هي الحل الصحيح لهم.

تلعب عتامة مقدمي الخدمات دورًا مهمًا هنا. يعالج العديد من الموردين بيانات التدريب والخوارزميات كأسرار خاصة ، مما يوفر وصفًا عالي المستوى فقط بدلاً من الشفافية ذات معنى. وفي الوقت نفسه ، غالبًا ما لا يتم تدريب موظفي المشتريات على تقييم المخاطر الخاصة بـ AI ، لذا فإن الأسئلة الحرجة حول التحيز أو القابلية للشرح لا يتم طرحها ببساطة.

يمكن للضغط السياسي لتقديم “محلول الذكاء الاصطناعي” بسرعة تجاوز العناية الواجبة المناسبة. أصبحت الذكاء الاصطناعى علامة على الابتكار بحيث يمكن في بعض الأحيان إلى حد السكك الحديدية المنطق الأساسي – بدلاً من ذلك ، نحتاج إلى التراجع عن خطوة إلى الوراء والسؤال عما إذا كانت هذه هي الأداة المناسبة في الواقع للوظيفة.

عندما تتضمن القرارات إدارات متعددة ولا يوجد شخص واحد مسؤول تمامًا عن التحقق من الأسس الفنية لـ AI ، تصبح الفجوات أمرًا لا مفر منه. يحتاج المشترون إلى الحصول على التدريب العملي مع الأدوات قبل تنفيذها واستخدام أدوات القياس التي يمكنها قياس التحيز. إذا أظهر الموردون تردد في الشفافية ، فيجب على المشترين الابتعاد.

تصميم المساءلة من اليوم الأول

إذن ، كيف تبدو المساءلة ذات المغزى الموردين في الممارسة العملية؟ يبدأ بالعقود التي تتضمن مسؤولية خط على حدة لكل قرار يتخذه نظام الذكاء الاصطناعي.

يجب على الموردين تقديم تدفقات قرار شفافة تمامًا وشرح تفكيرهم في مخرجات محددة ، وما هي البيانات التي استخدموها ولماذا. يجب أن يكون المشترون قادرين على التحدث مع العملاء المرجعيين الذين قاموا بالفعل بتنفيذ أنظمة مماثلة قائمة على الذكاء الاصطناعي. الأهم من ذلك ، يحتاج الموردون إلى توضيح كيفية تتبع أنظمتهم ومراجعتها وشرحها عندما تسوء الأمور.

أفضل اتباع نهج على غرار الناتج المحلي الإجمالي لتخصيص المسؤولية ، وهو مرتبط بالتحكم. إذا أصر الموردون على بيع الصناديق السوداء ذات الشفافية الدنيا ، فيجب عليهم قبول غالبية المخاطر. على الجانب الآخر ، كلما زادت الشفافية والتكوين والتحكم التي يمنحونها للمشترين ، كلما كان بإمكانهم مشاركة هذه المخاطر.

على سبيل المثال ، إذا قام المورد بإصدار نموذج جديد تم تدريبه على مجموعة بيانات تحول بشدة التحيز ، فهذا إذا قام المشتري بشراء أ أداة القائمة على القطع ويقدم عن طريق الخطأ بيانات حساسة ، والمسؤولية تقع مع المشتري. تحتاج العقود إلى تحديد كل سيناريو فشل محتمل ، وتعيين المساءلة وتوضيح العواقب.

لتجنب مصير الطائرات بدون طيار Amazon والسيارات بدون سائق – أي تقنيات موجودة ولكنها لا تزال عالقة في النسيان القانوني بسبب سلاسل المسؤولية غير الواضحة – ينبغي تصميم مشاريع AI في القطاع العام مع الإشراف البشري منذ البداية. يجب أن يكون هناك دائمًا شخص ما يتحقق من المخرجات والقرارات ، مع وجود عتبات أولية عالية تسترخي تدريجياً لأن الأنظمة تثبت دقتها باستمرار.

المفتاح هو تجنب المواقف التي تخلق فيها العديد من الأطراف مناطق رمادية من المسؤولية. أمضى المهنيون القانونيون سنوات في حظر التقدم في المركبات المستقلة وطائرات التوصيل الطائرات بدون طيار على وجه التحديد لأن أسئلة المسؤولية لا تزال دون إجابة. لا يمكننا السماح لمنظمة العفو الدولية باتباع نفس المسار.

فحص واقع التأمين

وماذا عن مكان قطاع التأمين في كل هذا؟ الحقيقة الصريحة ، على الأقل في الوقت الحالي ، هي أن شركات التأمين ليست على استعداد للمخاطر الخاصة بـ AI ، وهذه مشكلة هائلة لتبني القطاع العام.

مخاطر أسعار شركات التأمين بناءً على بيانات الخسارة التاريخية ، ولكن الذكاء الاصطناعى تتطور بسرعة كبيرة بحيث لا توجد سابقة تقريبًا للمطالبات التي تنطوي على نماذج الانجراف أو الضرر الناجم عن التحيز أو أخطاء الهلوسة الجهازية. في عمليات نشر الذكاء الاصطناعى التي تشمل أطراف متعددة ، يكافح شركات التأمين لتقييم التعرض دون تخصيص المخاطر التعاقدية البلورية.

العتامة الفنية المركبات المشكلة. نادراً ما يحصل شركات التأمين على رؤية كافية حول كيفية عمل النماذج أو البيانات التي يتم تدريبها عليها ، مما يجعل من المستحيل تقريبًا تحديد المخاطر حول التحيز أو هجمات الحقن الفوري.

عدم اليقين التنظيمي يضيف طبقة أخرى من التعقيد. ال قانون الاتحاد الأوروبي منظمة العفو الدولية، كلها نهج المؤيد في المملكة المتحدة واللوائح الخاصة بالقطاع في التدفق ، وهذا يجعل من الصعب على شركات التأمين تحديد شروط ثابتة وللمشترين لمعرفة التغطية التي يحتاجونها.

إن انتشار أطر وسياسات الذكاء الاصطناعى أمر مشجع ولكن بدون آليات إنفاذ ، فإنهم يخاطرون بأن يصبحوا أكثر من مجرد أوراق مكلفة. نحتاج إلى تضمين المساءلة في جميع المعايير الحكومية لجعلها عامل تمكين بدلاً من مانع. يمكن تحقيق خطة عمل فرص AI التابعة للحكومة من الناحية الفنية ، ولكن فقط إذا قمنا ببناء تدابير واضحة للمساءلة منذ البداية بدلاً من معاملتها كطريقة لاحقة.

Alastair Williamson-Pound هو كبير مسؤولي التكنولوجيا في Mercator Digital ، مع خبرة تزيد عن 20 عامًا عبر القطاعات الحكومية والتعليم والتجارية. وقد قاد برامج رئيسية لـ HMRC و GDS والحكومة المركزية.



Source link

زر الذهاب إلى الأعلى