أخبار التقنية

يجب على المشترين من القطاع العام لتكنولوجيا الذكاء الاصطناعي التحقق من مدى ملاءمتها


يجب على هيئات القطاع العام التي تتطلع إلى نشر النماذج الأساسية للذكاء الاصطناعي (AI) إجراء العناية الواجبة واسعة النطاق للأنظمة والموردين لتحديد وتخفيف المخاطر المختلفة المرتبطة بالتكنولوجيا في وقت مبكر، وفقًا لمعهد Ada Lovelace.

يُعرّف المعهد النماذج الأساسية بأنها نوع من أنظمة الذكاء الاصطناعي المصممة لمجموعة واسعة من حالات الاستخدام المحتملة مع القدرة على أداء مجموعة متنوعة من المهام المتميزة، بدءًا من الترجمة وتجميع النصوص وحتى إنشاء مسودات التقارير من الملاحظات أو الرد على استفسارات أعضاء المعهد. الجمهور.

على عكس “أنظمة الذكاء الاصطناعي الضيقة” التي يتم تدريبها على مهمة وسياق محددين، قال المعهد إن النماذج الأساسية، بما في ذلك نماذج اللغة الكبيرة (LLMs)، تتميز بحجمها وإمكانية تطبيقها على نطاق أوسع بكثير من المواقف.

وفيما يتعلق بعمليات النشر المحتملة في القطاع العام، فقد تم اقتراح أنه يمكن استخدام التكنولوجيا، على سبيل المثال، في تحليل الوثائق، ودعم اتخاذ القرار، وتحسين خدمة العملاء، والتي يُزعم أنها ستؤدي إلى زيادة الكفاءة في تقديم الخدمات العامة. اتصالات حكومية أكثر تخصيصًا ويمكن الوصول إليها ومصممة خصيصًا لتلبية الاحتياجات الفردية، وتحسينات في إدارة المعرفة الداخلية للحكومة.

وقال المعهد في تقرير له: “ومع ذلك، فإن هذه الفوائد غير مثبتة وتظل مجرد تخمينات”. إحاطة السياسة نُشر في أوائل أكتوبر 2023، مع الإشارة إلى أنه على الرغم من وجود تفاؤل في كل من القطاع العام والصناعة بشأن إمكانات هذه الأنظمة – خاصة في مواجهة تشديد قيود الميزانية واحتياجات المستخدمين المتزايدة – إلا أن هناك أيضًا مخاطر حقيقية حول قضايا مثل التحيز والاستغلال. التمييز، وانتهاكات الخصوصية، والمعلومات المضللة، والأمن، والاعتماد المفرط على الصناعة، والأضرار التي لحقت بالقوى العاملة، وعدم المساواة في الوصول.

وأضافت أيضًا أن هناك خطرًا من أن يعتمد القطاع العام مثل هذه النماذج لأنها تقنية جديدة، وليس لأنها أفضل حل لمشكلة ما.

“لذلك يجب على مستخدمي القطاع العام أن يفكروا بعناية في الحقائق المغايرة قبل تنفيذ نماذج الأساس. وهذا يعني مقارنة حالات الاستخدام المقترحة مع البدائل الأكثر نضجًا واختبارًا والتي قد تكون أكثر فعالية، أو توفر قيمة أفضل مقابل المال، أو تشكل مخاطر أقل – على سبيل المثال، توظيف نظام ذكاء اصطناعي ضيق أو موظف بشري لتقديم خدمة العملاء بدلاً من بناء نموذج أساسي روبوت الدردشة الذي يعمل بالطاقة.”

إطلاق فرقة العمل

على الرغم من أن الاستخدام الرسمي لتطبيقات النماذج التأسيسية مثل ChatGPT في القطاع العام يقتصر حاليًا على العروض التوضيحية والنماذج الأولية وإثباتات المفهوم (مع ملاحظة وجود بعض الأدلة على أن موظفي الخدمة المدنية الأفراد يستخدمونها على أساس غير رسمي)، أشار المعهد إلى أن حكومة المملكة المتحدة تسعى بنشاط إلى تسريع قدرات الذكاء الاصطناعي في المملكة المتحدة من خلال، على سبيل المثال، إطلاق برنامجها فرقة العمل النموذجية للمؤسسة بقيمة 100 مليون جنيه إسترليني في يونيو 2023.

ونظراً لهذه الدفعة، يركز جزء كبير من وثيقة الإحاطة على الدور الرائد الذي لعبه القطاع الخاص في تطوير التكنولوجيا، وكيف يمكن لهيئات القطاع العام أن تتنقل في عمليات الشراء والنشر الخاصة بها بطريقة تحد من الأضرار المختلفة المرتبطة بها.

على سبيل المثال، قال المعهد إن هناك خطرًا يتمثل في أن الاعتماد المفرط على مقدمي التكنولوجيا من القطاع الخاص يمكن أن يؤدي إلى عدم التوافق بين التطبيقات التي تم تطويرها لمجموعة واسعة من العملاء واحتياجات القطاع العام، الذي يتعامل عمومًا مع كميات أكبر بكثير من المعلومات الحساسة.

وقالت إن هناك أيضًا مخاطر أخرى تنشأ عن تحيز الأتمتة، حيث يثق المستخدمون بشكل مفرط في مخرجات النموذج الأساسي، أو يعاملونها كما لو كانت من إنسان.

وأضافت أن المجموعة الواسعة من المخاطر المرتبطة حاليًا بنماذج الأساس من الأفضل التعامل معها من قبل مقدمي نماذج الأساس في مرحلة التدريب من خلال، على سبيل المثال، تنظيف مجموعة البيانات، أو ضبط التعليمات، أو التعلم المعزز من التعليقات.

وعلى هذا النحو، قال المعهد إن جميع الهيئات العامة التي تسعى إلى شراء قدرات نموذج الأساس الخارجي يجب أن تطلب معلومات مفصلة حول المخاطر المرتبطة وعمليات التخفيف مقدمًا عند الشراء والتنفيذ.

“على سبيل المثال، عند شراء أو تطوير أداة تلخيص، يجب على مستخدمي القطاع العام أن يسألوا عن كيفية معالجة قضايا مثل التحيز الجنسي أو العنصري في مخرجات النص من خلال اختيار بيانات التدريب وضبط النماذج”. “أو عند نشر روبوت الدردشة للاستفسارات العامة، يجب عليهم التأكد من أن عملية استخدام البيانات لتحفيز نموذج اللغة الكبير الأساسي لا تنتهك حقوق الخصوصية، مثل مشاركة البيانات مع مزود خاص.”

ولدعم حوكمة نموذجية أكثر فعالية، أضاف المعهد أنه ينبغي لواضعي السياسات مراجعة الإرشادات ذات الصلة وتحديثها بانتظام؛ تحديد متطلبات المشتريات لدعم المعايير التي ينبغي كتابتها في المناقصات والعقود؛ اشتراط الاحتفاظ بالبيانات المستخدمة بواسطة النماذج محليًا؛ تفويض عمليات تدقيق مستقلة للأنظمة من قبل طرف ثالث؛ وتجريب حالات الاستخدام المحدود قبل طرحها على نطاق أوسع لتحديد جميع المخاطر والتحديات.

وأضاف أن الحوكمة الفعالة للذكاء الاصطناعي يجب أن تدعمها مبادئ نولان للحياة العامة، والتي تشمل المساءلة والانفتاح.

ومع ذلك، في يوليو 2023، وحذر المعهد من أن الحكومة البريطانية “تحرر” مقترحات إصلاح البيانات سوف يقوض التطوير والنشر الآمن للذكاء الاصطناعي من خلال جعل “مشهد الإنصاف والمساءلة الفقير بالفعل” أسوأ.

في تقرير يحلل تلك المقترحات – تم تضمينها إلى حد كبير في تقرير الذكاء الاصطناعي الصادر في مارس 2023 – وجدت أنه نظرا لأن “مساحات كبيرة” من اقتصاد المملكة المتحدة إما غير منظمة أو منظمة جزئيا فقط، فليس من الواضح من سيكون المسؤول عن التدقيق في عمليات نشر الذكاء الاصطناعي في مجموعة من السياقات المختلفة.

ويشمل ذلك ممارسات التوظيف والتوظيف، التي لا تخضع للمراقبة الشاملة؛ والتعليم والشرطة، اللذان تتم مراقبتهما وإنفاذهما من قبل شبكة غير متكافئة من الهيئات التنظيمية؛ والأنشطة التي تقوم بها إدارات الحكومة المركزية التي لا تخضع للتنظيم المباشر.

وقالت: “في هذه السياقات، لن يكون هناك أي جهة تنظيمية قائمة خاصة بمجال معين تتمتع بإشراف عام واضح لضمان دمج مبادئ الذكاء الاصطناعي الجديدة في ممارسة المنظمات التي تنشر أو تستخدم أنظمة الذكاء الاصطناعي”، مضيفة أنه تم إجراء تحليل قانوني مستقل لـ وجد المعهد التابع لوكالة حقوق البيانات AWO أنه في هذه السياقات، فإن الحماية التي توفرها حاليًا التشريعات الشاملة مثل اللائحة العامة لحماية البيانات في المملكة المتحدة وقانون المساواة غالبًا ما تفشل في حماية الأشخاص من الأذى أو منحهم طريقًا فعالًا للانتصاف.

“إن هذه الفجوة في التنفيذ تجعل الأفراد يعتمدون في كثير من الأحيان على إجراءات المحكمة لإنفاذ حقوقهم، وهو أمر مكلف ويستغرق وقتا طويلا، وغالبا ما لا يكون خيارا للفئات الأكثر ضعفا.”

المخاطر والفرص

وفي سبتمبر 2023، تم إطلاق مجلس اللوردات تحقيق في المخاطر والفرص التي تقدمها LLMsوكيف ينبغي لحكومة المملكة المتحدة أن تستجيب لانتشار التكنولوجيا.

في أدلة مكتوبة في التحقيق، سلط دان ماكويلان، المحاضر في الحوسبة الإبداعية والاجتماعية، الضوء على مخاطر الاستعانة بمصادر خارجية لعمليات صنع القرار لأدوات الذكاء الاصطناعي هذه.

وكتب: “إن الخطر الأكبر الذي تشكله نماذج اللغة الكبيرة هو رؤيتها كوسيلة لحل المشاكل الهيكلية الأساسية في الاقتصاد وفي الوظائف الرئيسية للدولة، مثل الرعاية الاجتماعية والتعليم والرعاية الصحية”.

“إن تحريف هذه التقنيات يعني أنه من المغري للشركات أن تعتقد أنها قادرة على استعادة الربحية على المدى القصير من خلال استبدال العمال بنماذج لغوية كبيرة، وأن تتبنى المؤسسات هذه النماذج كوسيلة لإنقاذ الخدمات العامة من التقشف المستمر والطلب المتزايد.

وقال ماكويلان: “ليس هناك شك في أن هذه الجهود ستفشل”. “السؤال المفتوح هو كم من أنظمتنا الحالية ستحل محلها نماذج لغوية كبيرة بحلول الوقت الذي يصبح فيه هذا الأمر واضحا، وما هي العواقب الطويلة المدى لذلك”.



Source link

زر الذهاب إلى الأعلى