تحتاج المجالس المحلية إلى “دعم أفضل” لشراء الذكاء الاصطناعي بطريقة مسؤولة
تحتاج السلطات المحلية إلى مزيد من الدعم لشراء أنظمة الذكاء الاصطناعي (AI) بشكل مسؤول، حيث أن التوجيهات الحكومية الحالية لا توفر وصفًا واضحًا أو شاملاً لكيفية شراء الذكاء الاصطناعي بما يخدم المصلحة العامة., وقد حذر معهد آدا لوفليس (ALI).
بحسب أ تقرير بحثي تواجه المجالس، التي نشرتها مجموعة المجتمع المدني، تحديات كبيرة في التعامل مع الإرشادات والتشريعات الحالية لأن هذه الوثائق مفتوحة للتفسير وتفتقر إلى الوضوح بشأن الجوانب الرئيسية للذكاء الاصطناعي، بما في ذلك كيفية تفعيل الاعتبارات الأخلاقية.
وقال ALI إن بحثه يأتي وسط توقعات متزايدة وتفاؤل بشأن إمكانات الذكاء الاصطناعي في القطاع العام، لكنه حذر من أن فوائد التكنولوجيا لن تتحقق إلا إذا تمكن القطاع العام من ضمان أن اعتمادها آمن وفعال ويخدم المصلحة العامة.
واستنادًا إلى تحليل 16 وثيقة توجيهية وتشريعية وسياسية ذات صلة بشراء الذكاء الاصطناعي والأنظمة المستندة إلى البيانات – والتي نُشرت جميعها بين عامي 2010 و2024 – قال التقرير إن هناك “عدم وضوح كافٍ” حول كيفية تطبيق مفاهيم مثل العدالة. وكيفية تعريف المنفعة العامة، وكيفية التأكد من أن استخدام الذكاء الاصطناعي يتسم بالشفافية والفهم للمتأثرين باستخدامه.
وأضاف أنه نظرًا لأن القطاع الخاص يقدم العديد من تقنيات الذكاء الاصطناعي، فإن عملية الشراء يمكن، بل وينبغي لها، أن تلعب دورًا مهمًا في تقييم فعالية الحلول المحتملة، وتوقع المخاطر وتخفيفها، وضمان أن يكون أي نشر متناسبًا ومشروعًا ومتوافقًا مع واجبات القطاع العام على نطاق أوسع.
ومع ذلك، أشار التقرير إلى أن هذا يثير أيضًا تساؤلات حول الخبرة الفنية داخل الحكومة المحلية – والتي قال ALI إنها ثغرة في التوجيهات الحالية – وكيف يمكن تجهيز فرق المشتريات وتمكينها لاستجواب الموردين حول تأثيرات التكنولوجيا الخاصة بهم وطرق الانتصاف. أثناء عملية الشراء.
“يسلط بحثنا الضوء على الحاجة إلى قدر أكبر من الوضوح حول المبادئ التوجيهية والمسؤوليات، والتعويض القابل للتنفيذ. وقالت المؤلفة الرئيسية آنا ستودمان، وهي باحثة أولى في ALI: “تحتاج فرق المشتريات إلى دعم أفضل وتوجيه أكثر وضوحًا حتى يتمكنوا من شراء الذكاء الاصطناعي الفعال والأخلاقي ويصب في مصلحة الناس والمجتمع”.
“يمكن أن يؤدي الذكاء الاصطناعي والأنظمة المعتمدة على البيانات إلى الإضرار بشدة بثقة الجمهور وتقليل المنفعة العامة إذا كانت التنبؤات أو النتائج التي تنتجها تمييزية أو ضارة أو ببساطة غير فعالة. توفر المشتريات فرصة حيوية للسلطات المحلية لاستجواب الموردين حول الآثار المجتمعية المحتملة لتقنياتهم.
ولمساعدة المجالس المحلية على تحسين جهودها في مجال مشتريات الذكاء الاصطناعي، قال ALI إنه يجب أن يكون هناك توحيد لتوجيهات الحكومة المركزية التي توفر الوضوح بشأن الالتزامات القانونية وأفضل الممارسات عبر دورة حياة المشتريات للنظام؛ وإنشاء معيار حسابي لتقييم الأثر يمكن للمجالس استخدامه عند الشراء؛ وبناء الإجماع حول كيفية تعريف القطاع العام للمصطلحات الأساسية مثل “العدالة” و”الشفافية”.
فيما يتعلق بالشفافية على وجه التحديد، أضاف ALI أن الهيئات الحكومية المحلية ستحتاج إلى اتباع “نهج شمولي” ينظر إلى العمليات الداخلية والمنافسة العادلة، بالإضافة إلى كيفية إعلام المجتمعات وتمكينها من تحدي القرارات التي تتخذها الأنظمة الآلية باستخدام قدراتها. بيانات.
وقال إيموجين باركر، المدير المساعد لمعهد ALI: “من الضروري أن يكون المشترون في القطاع العام واثقين من المنتجات التي يشترونها – ولا يتعرضون هم ولا الجمهور للخطر”.
“إن تضمين عملية شراء قوية وأخلاقية في سياق الميزانيات المخفضة يمثل بالطبع تحديًا كبيرًا. ولكن من المهم أن نأخذ في الاعتبار أيضًا تكلفة عدم القيام بذلك، ماليًا وأخلاقيًا، وهو الأمر الذي أظهره بوضوح شديد فضيحة مكتب البريد الأفق“.
وأوصى التقرير كذلك رفع مهارات فرق المشتريات الحكومية المحلية في كيفية استخدام وتدقيق أنظمة الذكاء الاصطناعي، وعلى الحكومة استكمال نشر معيار تسجيل الشفافية الخوارزمية (ATRS) عبر القطاع العام بأكمله، وليس فقط إدارات الحكومة المركزية.
في حين تم إنشاء ATRS من قبل المكتب الرقمي والبيانات المركزي – الذي كان آنذاك جزءًا من مكتب مجلس الوزراء – بالتعاون مع المركز الحكومي لأخلاقيات البيانات والابتكار في نوفمبر 2021، لم يتم اعتماده على نطاق واسع وكان لم تتم ترقيته من قبل حكومة المحافظين في تقرير الذكاء الاصطناعي لشهر مارس 2023، والتي وضعت مقترحات الإدارة لهذه التكنولوجيا.
علي سابقا أصدر تحذيرات مماثلة بشأن نشر النماذج “الأساسية” أو نماذج اللغات الكبيرة (LLMs) في جميع أنحاء القطاع العام في أكتوبر 2023، مع الإشارة إلى المخاطر المحيطة بقضايا مثل التحيز والتمييز وانتهاكات الخصوصية والمعلومات الخاطئة والأمن والاعتماد المفرط على الصناعة والأضرار التي لحقت بالقوى العاملة وعدم المساواة في الوصول.
وأضافت أيضًا أن هناك خطرًا حقيقيًا في أن يعتمد القطاع العام مثل هذه النماذج لأنها تقنية جديدة، وليس لأنها أفضل حل لمشكلة ما.
“لذلك يجب على مستخدمي القطاع العام أن يفكروا بعناية في الحقائق المغايرة قبل تنفيذ نماذج الأساس. وهذا يعني مقارنة حالات الاستخدام المقترحة مع البدائل الأكثر نضجًا واختبارًا والتي قد تكون أكثر فعالية، أو توفر قيمة أفضل مقابل المال، أو تشكل مخاطر أقل – على سبيل المثال، توظيف نظام ذكاء اصطناعي ضيق أو موظف بشري لتقديم خدمة العملاء بدلاً من بناء نموذج أساسي روبوت الدردشة الذي يعمل بالطاقة.”