أخبار التقنية

هل يجب أن نثق في همفري لتعزيز كفاءة القطاع العام؟


في تطور من البيروقراطية التي يقدرها جماهير وزير ، فإن الخدمة المدنية تطرح مجموعة من أدوات الذكاء الاصطناعى المسماة – نعم – همفري. سميت على اسم السير همفري أبلبي ، الموظف المدني في OH-healpful الذي كان في الواقع سيد العرقلة من خلال التعاون ، تم تصميم مبادرة الذكاء الاصطناعى هذه لتبسيط الخدمات ، وخفض التأخير ، والمساعدة في فتح 45 مليار جنيه إسترليني في مكاسب الإنتاجية السنوية في جميع أنحاء القطاع العام. ولكن بالنسبة لأولئك المطلعين على BBC Classic ، فإن اختيار الاسم يشبه إشارة إلى الابتكار وأكثر مثل حكاية تحذيرية. لأنه تمامًا مثل الاسم نفسه ، قد ينتهي هذا الموظف المدني الرقمي الجديد بمهارة في الاتجاه الخاطئ.

https://www.youtube.com/watch؟v=L3HS96Dinuk

Humphrey AI عبارة عن مجموعة من الأدوات ، بما في ذلك Conser و Parlex و Minute و Redbox و Lex ، والتي مستهدفة نقاط الألم البيروقراطية: الإدارة المكررة ، والبيانات المروعة ، واتخاذ القرارات البطيئة. إذا تم تنفيذه جيدًا ، فقد يقلل من الحاجة إلى مستشارين خارجيين ، وتسريع عملية صنع القرار ، وتعزيز تجربة الجمهور.

إنها جزء من مبادرة أوسع لإدخال الدولة إلى العصر الرقمي. سوف يساعد تبسيط العمليات عبر القطاع العام من خلال توفير معالجة البيانات عبر الإنترنت ، وأتمتة المهام الإدارية الروتينية ، وتسريع الأبحاث المستهلكة للوقت التي يمكن أن تبطئ تطوير السياسة. من خلال تمكين تدفقات البيانات الآمنة القابلة للتشغيل المتبادل ، يمكن لـ Humphrey تحسين تجارب المواطن مع تقليل تكاليف الخدمة المدنية والتغلب على الاعتماد على الاستشاريين الخارجيين لمعالجة البيانات وتحليلها.

لا يوجد وزير ، لا يمكن لـ AI إصلاح مشاكل البيانات الخاصة بك

ومع ذلك ، هناك درس من نعم ، لا يزال الوزير يحمل – يمكن للمساعد ذي النية الجيدة التضليل مع ظهور مفيد. هذا صحيح بشكل خاص لآخر جيل من أدوات الذكاء الاصطناعي. هذه الأنظمة جيدة فقط مثل البيانات التي تغذيها. هناك أيضًا أدلة متزايدة على أنه مع تحسن تفكيرهم وقدراتهم المتخصصة الأخرى ، تميل هذه الأنظمة إلى “هلوسة” أكثر.

يمكن أن تؤدي مجموعات البيانات التي تنعم بشكل سيئ برعاية أدوات الذكاء الاصطناعى لتقديم نتائج واثقة ولكن لا معنى لها ، وهي خطر مع آثار خطيرة على ثقة الجمهور. تضمن أحد الأمثلة المذهلة نموذج GPT-3.5 المدربين على 140،000 رسالة الركود الداخلية. عندما يُطلب من كتابة المحتوى ، أجاب ، “سأعمل على ذلك في الصباح”. بدلاً من أداء المهمة ، قام المكون الإضافي Smart Connections بتقليد عادات المماطلة المضمنة في بيانات التدريب الخاصة به. لقد قامت بوظيفة مختلفة تمامًا عن المتوقع ، باستخدام مجموعة بيانات غير مناسبة بشكل أساسي ، وإن كان ذلك مناسبًا بشكل سطحي بسبب حجمه.

بالإضافة إلى وجود بيانات التدريب الصحيحة ، تتطلب الذكاء الاصطناعى الوصول إلى مجموعات بيانات جاهزة للمهمة ذات الصلة بالمهمة. على الرغم من ثروة من البيانات المفتوحة على منصات مثل data.gov.uk ، فإن الكثير منها لا يمكن استخدامه بسهولة للتدريب أو صياغة أنظمة الذكاء الاصطناعى. تحليل حديث من قبل معهد البيانات المفتوح (ODI) كشفت أن مجموعات البيانات العامة الرئيسية المستخدمة من قبل معظم نماذج الذكاء الاصطناعى لا ، اعتبارا من أبريل 2024 ، تستفيد أقصى استفادة من البيانات الإحصائية وغيرها من البيانات المنشورة على هذه البوابات الحكومية. نادراً ما ساهمت في الإجابة على أسئلة المواطن حول الخدمات العامة بدقة ، ونادراً ما ساهمت في الإجابة على أسئلة المواطن حول الخدمات العامة بدقة ، إن 13556 صفحة من Data.gov.uk التي تم تجاهلها لإدراجها في مجموعة بيانات منظمة العفو الدولية مثل CommonCrawl ، نادراً ما ساهمت في الإجابة على أسئلة المواطنين حول الخدمات العامة بدقة. عبر 195 أسئلة المواطن ، أدت نماذج الذكاء الاصطناعى إلى الإشارة بشكل صحيح إلى البيانات. gov.uk في خمس حالات فقط. بدلاً من ذلك ، استقطبوا مصادر ثانوية أو غير موثوقة ، مثل منشورات وسائل التواصل الاجتماعي أو مقالات الرأي ، أو ببساطة إجابات ملفقة. هذا الانفصال خطير. إنه يفتح الباب على المعلومات الخاطئة التي يتم إنشاؤها بواسطة أدوات الذكاء الاصطناعي المنقولة بالحكومة.

سبب ذلك هو أن البيانات الحكومية لا يتم نشرها غالبًا بتنسيقات جاهزة لـ AI ، على سبيل المثال ، تفتقر إلى البيانات الوصفية القابلة للقراءة الآلي أو الملخصات التي يمكن الوصول إليها ، مما يجعل المعلومات غير مرئية بشكل أساسي لنماذج الذكاء الاصطناعى. علاوة على ذلك ، فإن فهمنا لمصادر الخدمات الرقمية التي تمكن من تحديد أولوياتها محدودة. قارن ذلك من خلال الحلول التقنية التي تضعها أدوات الذكاء الاصطناعى من الذكاء الاصطناعي ، مثل محركات البحث التقليدية ، لضمان أن أسئلة المواطنين حول الخدمات العامة تصنف الصفحات الحكومية وغيرها من المصادر الموثوقة أعلى من المعلومات الثانوية. نحن فقط نبدأ في تلك الرحلة مع الذكاء الاصطناعي التوليدي.

رقمنة اتخاذ القرارات السيئة

يتطلب استخدام AI لمعالجة البيانات أو سياسة البحث أو كتابة المستندات فهم كيفية عمل هذه التقنيات ، والبيانات التي تعتمد عليها ، وقيودها. هذه هي الطريقة الوحيدة التي يمكن للعمال التحقق من صحة مخرجات الذكاء الاصطناعي. ومع ذلك ، وجد الباحثون في كلية هارفارد للأعمال أنه على الرغم من أن الذكاء الاصطناعى تقدم قيمة حقيقية ، فإن نقاط فشلها غير المتوقعة تجعل كل من الفوائد والمخاطر التي يصعب قياسها ، للأفراد والمنظمات والحكومات على حد سواء.

اعترفت استراتيجية البيانات الوطنية ، التي نشرت في ظل حكومة المحافظة السابقة ، بمشاكل مثل “تجزئة القيادة وعدم وجود عمق في مهارات البيانات على جميع المستويات ، والثقافة التي تغلب على مخاطر سوء استخدام البيانات ، مما يؤدي إلى” انخفاض استخدام البيانات المزمن والافتقار إلى الفهم لقيمتها “. هذا يحتاج إلى التغيير على وجه السرعة. إذا لم يفهم موظفو الخدمة المدنية كيف يعمل الذكاء الاصطناعي ، فكيف يمكنهم التشكيك في مخرجاته؟

ضعف الفهم على المستويات العليا له عواقب خاصة. على سبيل المثال ، تتبع بيانات الغياب المدرسي نقاط بيانات مثل مجموعة السنة ومؤشرات الخلفيات المحرومة ، مثل وضع الطفل المحتاج ، ولكنه يفتقد التفاصيل الحبيبية ، مثل التباين العصبي ، على الرغم من الأدلة على أن نسبة عالية جدًا من الأطفال الذين يواجهون صعوبة في التوحد. هذا الستائر ، صانعي السياسة إلى حقيقة أن العديد من التلاميذ الغائبين باستمرار هم مصابون بالتوحد ، مما يشجع الاستجابات العقابية مثل الغرامات الوالدية بدلاً من الدعم المصمم. يمكن أن تساعد محو الأمية الأفضل من الذكاء الاصطناعي ، بدعم من الاستخدام المدروس لأدوات الذكاء الاصطناعي بأنفسهم ، موظفي الخدمة المدنية على فهم البيانات فحسب ، بل تعلم كيفية التشكيك فيها.

بلدان أخرى تمضي قدمًا بالفعل. Estonia ، على سبيل المثال ، قدمت Bürokratt ، AI chatbot تهدف إلى الحد من أعباء العمل في الخدمة المدنية وتسريع تقديم الخدمة. لكن بشكل حاسم ، أن إستونيا لا تستثمر فقط في الأدوات ؛ إنها تستثمر في تدريب موظفيها. أطلقت وزارة الشؤون الاقتصادية والاتصالات الإستونية أكاديمية الدولة الرقمية ، حيث قدمت دورات مجانية حول الحوكمة الرقمية ومنظمة العفو الدولية ومعالجة البيانات لموظفي الخدمة المدنية.

يجب أن تأخذ بريطانيا ملاحظة. بينما كانت هناك جهود ل upskill الخدمة المدنية في المملكة المتحدة، ركزت معظم المبادرات على مهارات البيانات المتقدمة بدلاً من محو الأمية التأسيسية للبيانات المطلوبة في جميع المجالات. لا يحتاج صانعو السياسة إلى رمز في بيثون ، ولكن إذا لم يتمكنوا من اكتشاف التحيز في مجموعة بيانات أو استجواب إخراج الذكاء الاصطناعي ، فلن يتوفر أي قدر من الأتمتة قرارات أفضل. سوف يخفي فقط السيئة خلف واجهة رقمية أنيقة.

تبسيط “آلة البيروقراطية القديمة الصرير”

في عام 1980 ، أعلن الوزير جيم هاكر بتفاؤل في نعم ، وزير ، “سنقوم باختراق كل الشريط الأحمر ، وتبسيط هذه الآلة البيروقراطية القديمة الصاخبة”. بعد أكثر من أربعين عامًا ، تأمل الحكومة أن تتمكن منظمة العفو الدولية في النهاية من تحقيق هذا الوعد – وقيادة النمو الاقتصادي الواسع على طول الطريق. في القطاع العام وحده ، يقدر وزير التكنولوجيا بيتر كايل “أ 45 جنيه إسترليني بالجائزة الكبرىبالنسبة للقطاع العام إذا كانت الخدمة المدنية تعتمد بنجاح منظمة العفو الدولية. لإلغاء قفل ذلك ، هناك حاجة إلى الاستثمار ، ليس فقط في أدوات مثل همفري ، ولكن في التدريب والبنية التحتية لدعم استخدامها.

تدعو ODI إلى عشر سنوات خريطة طريق للبيانات الوطنية للبيانات للقيام بذلك. ستدعم خارطة الطريق هذه خطة عمل فرص الذكاء الاصطناعى من خلال التركيز على ثلاثة أعمدة – قابلية التشغيل البيني ، البيانات الجاهزة الذكاء الاصطناعي، وتقنيات الحفاظ على الخصوصية. بينما تحدد الخطة اتجاهًا قويًا ، فإنها تفتقر إلى التفاصيل حول كيفية تعيين المعايير ومراقبتها وكيف سيتم تمويل البنية التحتية للبيانات التأسيسية.

الشفافية حول مصدر وسلالة مجموعات البيانات المستخدمة لتدريب وتشغيل الذكاء الاصطناعي في الخدمات العامة أمر بالغ الأهمية. بدونها ، لا يمكننا التدقيق في كيفية تأثير الذكاء الاصطناعي على القرارات التي تؤثر على حياتنا. لبناء الثقة العامة ، نحتاج إلى استكشاف الإشراف التشاركي لمجموعات البيانات الرئيسية بحيث يمكن للأشخاص الأكثر تضرراً خوارزميات القطاع العام المساعدة في تشكيل كيفية استخدام بياناتهم.

هذا هو المكان الذي تكون فيه الأطر مثل الإطار الجديد لـ ODI للبيانات الجاهزة من الذكاء الاصطناعي أمرًا حيويًا. إنه يحدد أربعة مبادئ أساسية لإعداد مجموعات البيانات للاستخدام الفعال والأخلاقي في الذكاء الاصطناعي: التحسين التقني ، وجودة البيانات ومعاييرها ، والامتثال القانوني ، والجمع المسؤول. إنه يتجاوز المبادئ العامة مثل Fair ، (يمكن العثور عليها ، يمكن الوصول إليها ، قابلة للتشغيل ، قابلة لإعادة الاستخدام) ، مشيرًا إلى الخطوات العملية التي يمكن لناشري البيانات غير المتخصصين اتباعها لضمان أن البيانات ليست مجرد قابلة للقراءة للآلة ، ولكنها ذات مغزى ، قانوني ، وعادل.

لتسخير البيانات من أجل الصالح العام ، يجب أن نفكر على المدى الطويل ، وبناء أسس بيانات صلبة ، وقبل كل شيء ، نبقى متيقظين بشأن مخاطر ضعف الرقمنة. خلاف ذلك ، فإن أقوى موظف مدني جديد في وايتهول لن يكون إنسانًا ، فسيكون منظمة العفو الدولية تسمى همفري. ومثل الاسم نفسه ، سيبدو مفيدًا إلى ما لا نهاية ، في حين أن تشكيل النتائج بمهارة لتناسب البيانات التي تدرب عليها. يخاطر موظفو الموظفين المدنيين بأن يصبحوا جيم المتسللين في العصر الحديث ، ويحاولون ببسالة تبسيط آلة قديمة صرير ، مع تفوقها بهدوء من قبل زميلهم الرقمي الجديد.

إيلينا سيمبيرل هي مديرة الأبحاث في ODI.



Source link

زر الذهاب إلى الأعلى