ينشر مكتب مجلس الوزراء إرشادات الذكاء الاصطناعي التوليدية المكونة من 10 نقاط

نشرت الحكومة أول طعنة لها في وثيقة إطار عمل الذكاء الاصطناعي (GenAI)، والتي تسرد 10 مبادئ يجب على المطورين والموظفين الحكوميين الذين يستخدمون التكنولوجيا أخذها في الاعتبار. توفر المبادئ العشرة المشتركة إرشادات حول الاستخدام الآمن والمسؤول والفعال لـ GenAI في المؤسسات الحكومية.
وقال ديفيد نوت، كبير مسؤولي التكنولوجيا في الحكومة، إن التوجيهات تقدم اعتبارات عملية لأي شخص يخطط أو يطور نظامًا توليديًا للذكاء الاصطناعي.
“جيناي لديه القدرة على إطلاق فوائد إنتاجية كبيرة. يهدف هذا الإطار إلى مساعدة القراء على فهم الذكاء الاصطناعي التوليدي، وتوجيه أي شخص يقوم ببناء حلول الذكاء الاصطناعي التوليدي، والأهم من ذلك، تحديد ما يجب أخذه في الاعتبار لاستخدام الذكاء الاصطناعي التوليدي بأمان ومسؤولية. .
ويدعو التقرير صناع القرار في الحكومة إلى تقدير هذه القيمة قيود التكنولوجيا. على سبيل المثال، تفتقر نماذج اللغات الكبيرة (LLMs) إلى الخبرات والعواطف الشخصية ولا تمتلك بطبيعتها وعيًا سياقيًا، ولكن بعضها لديه الآن إمكانية الوصول إلى الإنترنت، حسبما يشير إطار الذكاء الاصطناعي التوليدي لحكومة صاحب الجلالة (HGM).
ويجب أيضًا نشر التكنولوجيا بشكل قانوني وأخلاقي ومسؤول. ويحث المبدأ الثاني في التقرير التوجيهي صناع القرار في الإدارات الحكومية على المشاركة في وقت مبكر مع المتخصصين في مجال الامتثال، مثل خبراء حماية البيانات والخصوصية والقانونيين. ينص التقرير على ما يلي: “يجب عليك طلب المشورة القانونية بشأن الآثار المترتبة على المساواة في الملكية الفكرية والعدالة وتأثيرات حماية البيانات على استخدامك للذكاء الاصطناعي التوليدي.”
والأمن هو مجال التركيز الثالث، يليه ما يسميه مؤلفو التقرير “الحاجة إلى وجود سيطرة بشرية ذات معنى في المرحلة المناسبة”.
ينص تقرير التوجيه على ما يلي: “عند الاستخدام الذكاء الاصطناعي التوليدي لتضمين وظيفة chatbot في موقع ويب، أو الاستخدامات الأخرى حيث تعني سرعة الاستجابة للمستخدم أن عملية المراجعة البشرية غير ممكنة، يجب أن تكون واثقًا من التحكم البشري في مراحل أخرى من دورة حياة المنتج.
“يجب أن تكون قد قمت باختبار المنتج بشكل كامل قبل النشر، وأن يكون لديك ضمان قوي وفحوصات منتظمة للأداة المباشرة. وبما أنه من غير الممكن بناء نماذج لا تنتج أبدًا مخرجات غير مرغوب فيها أو وهمية (أي الهلوسة)، فإن دمج تعليقات المستخدم النهائي أمر حيوي.
تتم تغطية دورة حياة منتجات الذكاء الاصطناعي التوليدي في المبدأ الخامس، الذي يبحث في فهم كيفية مراقبة وتخفيف الانجراف والتحيز والهلوسة في الذكاء الاصطناعي التوليدي. ويوصي التقرير صناع القرار في الإدارات الحكومية بأن يكون لديهم عملية اختبار ومراقبة قوية لرصد هذه المشاكل.
يغطي المبدأان السادس والسابع اختيار الأدوات المناسبة للوظيفة والحاجة إلى التعاون المفتوح. وتوصي التوجيهات أيضًا بأن تعمل الإدارات الحكومية مع الزملاء التجاريين منذ البداية.
ينص المبدأ الثامن الذي يغطيه التقرير على ما يلي: “إن أدوات الذكاء الاصطناعي التوليدي جديدة وستحتاج إلى مشورة محددة من زملائك التجاريين حول الآثار المترتبة على مشروعك. يجب عليك التواصل مع زملائك التجاريين في وقت مبكر من رحلتك لفهم كيفية استخدام الذكاء الاصطناعي التوليدي بما يتماشى مع المتطلبات التجارية.
إن الحاجة إلى امتلاك المهارات المناسبة وعملية الضمان الراسخة تكمل المبادئ العشرة. يوصي مؤلفو التقرير بأن تقوم الإدارات الحكومية بتنفيذ عمليات مراجعة وتصعيد موثقة بشكل واضح. قد يكون هذا مجلس مراجعة توليدي للذكاء الاصطناعي، أو مجلسًا على مستوى البرنامج.