أخبار التقنية

يقول السكرتير الدائم DSIT المزيد من شفافية الذكاء الاصطناعى المطلوبة


وقال وزارة العلوم والابتكار والتكنولوجيا (DSIT) إن معظم موظفي الموظفين المدنيين إن الحكومة يجب أن تذهب أبعد من ذلك في تحسين الشفافية حول طرح أنظمة الذكاء الاصطناعي (AI) في جميع أنحاء القطاع العام.

طلب من أعضاء لجنة الحسابات العامة (PAC) في 30 يناير 2025 كيف يمكن للحكومة أن تحسن الثقة في زيادة استخدام القطاع العام لأدوات اتخاذ القرارات من الذكاء الاصطناعي والخوارزمية ، قالت السكرتيرة الدائمة DSIT سارة مونبي “هناك المزيد للقيام به على الشفافية” ، والتي يمكن أن تساعد في بناء الثقة في كيفية ثقة يتم استخدام الأدوات الآلية.

وقال مونبي إن القطاع العام يجب أن يكون واضحًا ، على سبيل المثال ، تم استخدام الذكاء الاصطناعي في رسائل أو رسائل بريد إلكتروني من الحكومة إلى المواطنين (شيء قالت إنه ينعكس في التوجيه الحكومي) ، وكذلك التركيز على كيفية تواصله مع الناس عبر البلد حول القضايا المتعلقة الذكاء الاصطناعى.

وأضافت أنه إذا فشلت الحكومة في أن تكون “جديرة بالثقة بشكل واضح” ، فستصبح في النهاية “مانعًا من التقدم” لمزيد من طرح أدوات الذكاء الاصطناعي.

أحد الجوانب الرئيسية لجهود الحكومة هنا هو معيار تسجيل الشفافية الخوارزمي (ATRS) ، والذي كان تم تصميمه بالتعاون بين DSIT ومكتب الرقمية ومكتب البيانات المركزي (CCDO) ، وطرح في سبتمبر 2022 لتحسين شفافية القطاع العام وتوفير المزيد من المعلومات حول الأدوات الخوارزمية التي يستخدمونها.

بينما أعلنت DSIT في فبراير 2024 أنها تهدف إلى جعل ATRS شرطًا إلزاميًا لجميع الإدارات الحكومية خلال عام 2024 (بالإضافة إلى توسيع استخدامه إلى القطاع العام الأوسع مع مرور الوقت) انتقد على قلة المشاركة معها حتى الآن ، على الرغم من أن الحكومة لديها مئات من العقود المتعلقة بالنيابة.

في مارس 2024 ، المكتب الوطني للتدقيق (NAO) أبرز كيف قال ثمانية من أصل 32 منظمة تستجيب لمسح نشر الذكاء الاصطناعي إنها “دائمًا أو عادةً ما تكون متوافقة مع المعيار”. في تلك المرحلة ، تم احتواء سبعة سجلات فقط في ATRS.

كما هو الحال ، هناك حاليا 33 سجلات موجودة في ATRS، 10 منها كانت نشرت طوعا في 28 يناير من قبل السلطات المحلية التي لا تغطيها تفويض الوزارة المركزية.

وتعليقًا على ATRS ، اعترف Munby “نحن بحاجة إلى الحصول على المزيد” ، مع الإشارة إلى أنه من المقرر نشر “20 أو نحو ذلك” في فبراير ، مع “الكثير” لمتابعة على مدار العام.

وقالت: “من وجهة نظرنا على الإطلاق أن يكونوا جميعًا قد خرجوا ونشرهم”. “يستغرق الأمر بعض الوقت لتنفيذهم وجعلهم يركضون. لم يكن الأمر إلزاميًا لفترة طويلة ، ولكن … كان هناك تسارع كبير في وتيرة مؤخرًا ، ونتوقع أن يستمر ذلك. “

أبرز مونبي أيضًا أن “الحصول على الحق في القانون هو عنصر مهم” لبناء الثقة. “هناك نطاق واسع للغاية مجموعة من الأحكام في البيانات [Use and Access] فاتورة والتي تدور حول التأكد من حدوث اتخاذ القرارات الآلية ، هناك أشكال جيدة حقًا من التراجع ، بما في ذلك القدرة على التحدي [decisions]قالت.

بينما تبنت حكومة العمل كل توصية تقريبًا من المنشور مؤخرًا خطة عمل الذكاء الاصطناعي – الذي اقترح زيادة الثقة والاعتماد في التكنولوجيا من خلال بناء النظام الإيكولوجي لضمان الذكاء الاصطناعى في المملكة المتحدة – لا شيء من التوصيات متطلبات الشفافية المذكورة.

“شفافية ذات مغزى اجتماعيا”

في أدلة مكتوبة إلى PAC نشرت في 30 يناير ، قالت مجموعة من الأكاديميين – بما في ذلك جو بيتس ، أستاذ البيانات والمجتمع في جامعة شيفيلد ، وهيلين كينيدي ، أستاذة المجتمع الرقمي بجامعة شيفيلد – إنها مفتاح أن يكون لديك “شفافية ذات مغزى اجتماعي” حول استخدام القطاع العام AI والخوارزميات.

وقالوا: “تركز الشفافية ذات المغزى اجتماعيًا على تعزيز فهم أنظمة الذكاء الاصطناعى للاستخدام المستنير والمشاركة الديمقراطية في المجتمعات المنقولة بالبيانات”. “هذا مهم بالنظر إلى المخاطر التي تم إثباتها على نطاق واسع من الذكاء الاصطناعي ، على سبيل المثال. تحيز الخوارزمية والتمييز ، أن الجماهير تدرك بشكل متزايد. الشفافية ذات المغزى اجتماعيا تعطي أولوية احتياجات ومصالح أفراد الجمهور على مستهلكين مطوري نظام الذكاء الاصطناعى. “

وأضافوا أنه ينبغي على الحكومة أن تعمل على “تقليل عدم تناسق المعلومات” حول الذكاء الاصطناعي من خلال تسجيل أنظمة تكليف ، وكذلك “من خلال تعزيز النقاش واتخاذ القرارات بين أطراف الحكومة والثالثة غير التجارية ، بما في ذلك أفراد الجمهور” حول ما هي الذكاء الاصطناعي ” -يتم إصدار المعلومات المرتبطة علنًا.

إضافي أدلة مكتوبة من مايكل وولدريدج ، أستاذ علوم الكمبيوتر في جامعة أكسفورد ، أبرز أيضًا الحاجة إلى زيادة ثقة الجمهور في منظمة العفو الدولية ، حيث يمكن أن تلعب الشفافية دورًا أساسيًا.

“بعض الناس متحمسون بشأن الذكاء الاصطناعي. لكن الكثيرون قلقون بشأنه “. “إنهم قلقون بشأن وظائفهم ، حول خصوصيتهم ، وقد يقلقون (خطأ) بشأن التهديد الوجودي.

وقال وولدريدج: “على الرغم من أن استخدام الذكاء الاصطناعى في الحكومة ، أعتقد أنه من المحتمل أن يكون الاستخدام الحكومي لمنظمة العفو الدولية سوف يقوّلهم بالشك (في أحسن الأحوال) ، والعداء والغضب في أسوأ الأحوال”. “هذه المخاوف – مهما كانت في غير محله – تحتاج إلى أن تؤخذ على محمل الجد ، والشفافية ضرورية للغاية لبناء الثقة.”



Source link

زر الذهاب إلى الأعلى