كيف تساعد بطاقات الأداء الأخلاقية في بناء الثقة في أنظمة الذكاء الاصطناعي

اشتهرت مارلين مونرو بقولها إن الألماس هو “أفضل صديق للفتاة”. لكن معظم الناس لا يريدون الكربون المضغوط الذي يأتي على حساب حياة الإنسان، أو ما يسمى بالماس الدموي أو ماس الصراع. ولمعالجة هذه المخاوف، يقدم تجار المجوهرات للعملاء شهادات أخلاقية عن مصدر أحجارهم الكريمة.
مقدمو الذكاء الاصطناعي في وضع مماثل. مثل التعلم الآلي و نماذج لغوية كبيرة لقد أصبحت جزءًا لا يتجزأ من الشركات، فإن أصل البيانات المستخدمة لتدريب شركاء الذكاء الاصطناعي هؤلاء والطرق التي يتم استخدامها بها لها أهمية حاسمة بالنسبة للمؤسسات التي تتبنى هذه التقنيات.
إن البيانات التي يتم جمعها بشكل عشوائي والتي تنتهك بشكل صارخ قوانين حقوق الطبع والنشر والملكية الفكرية أصبحت موضع استياء متزايد. كما أصبحت المخاوف الأخلاقية الأوسع نطاقًا بشأن كيفية عمل هذه النماذج واستخدامها للبيانات بمثابة مشكلات قانونية وتنظيمية. المخاوف المتعلقة بالمسؤولية تتضخم.
وتقوم الشركات التي تقدم منتجات الذكاء الاصطناعي الآن بتزويد عملائها بتقارير مفصلة – بطاقات الأداء الأخلاقية – التي تقدم قائمة جرد بالمصادر التي تأتي منها البيانات التي تم تدريب نماذجها عليها، وكيفية معالجتها، وكيفية استخدامها. تساعد بطاقات الأداء هذه المؤسسات على بناء الثقة مع عملائها، الذين يمكنهم بدورهم تقديم عروضهم إلى المستخدم النهائي بثقة أكبر.
تحدثت InformationWeek إلى سيندي هوسون، كبيرة مسؤولي البيانات وإستراتيجية الذكاء الاصطناعي في ThoughtSpot، وجيمي هاتون، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا في Quantexa، حول كيف يمكن لبطاقات الأداء الأخلاقية للذكاء الاصطناعي أن تزود الشركات بالشفافية التي تحتاجها لاختيار المنتج المناسب – وتضمن للمستخدمين النهائيين التأكد من أنهم يتلقون المعلومات التي تم الحصول عليها من مصادر مناسبة.
المتطلبات القانونية
تخضع البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي إلى خليط من اللوائح المطبقة بشكل غير متسق. الاتحاد الأوروبي قانون الذكاء الاصطناعي هي المجموعة الشاملة الوحيدة من التشريعات التي تنظم استخدام البيانات من قبل منصات الذكاء الاصطناعي، ومثل اللوائح التكنولوجية الأوروبية الأخرى، من المرجح أن تكون بمثابة نموذج لولايات قضائية أخرى. وهو يتداخل مع ولايات مجموعة التشريعات الرئيسية الأخرى التي تم إقرارها في الاتحاد الأوروبي، وهي اللائحة العامة لحماية البيانات.
تستفيد بطاقات الأداء الأخلاقية من الأطر المنصوص عليها في هذا التشريع – وكذلك في الأطر غير الملزمة مثل تلك الصادرة عن منظمة التعاون الاقتصادي والتنمية – الإبلاغ عن مصادر البيانات واستخدامها للمستخدمين والمنظمين بطريقة مفهومة. يمكن أيضًا استخدام مجموعة متنوعة من المعايير التي طورها علماء الأخلاق ونشرتها في المجلات الأكاديمية.
في حين أن بطاقات الأداء هذه تعمل كمؤشرات للسلوك الأخلاقي بشكل عام، فهي أيضًا وثائق امتثال، مما يدل على التزام الشركة بالقواعد المتعلقة بمصادر البيانات والخصوصية والحياد والمساءلة.
يُنظر بشكل متزايد إلى توقع سن تشريعات الذكاء الاصطناعي على نطاق أوسع التعويض اللازم للمستخدمين. لقد تعرض مقدمو خدمات الذكاء الاصطناعي، مثل Anthropic، بالفعل لانتهاكات أضيق لحقوق الطبع والنشر. تقوم الهيئات التنظيمية الأخرى أيضًا بمراقبة البيانات المستخدمة في الذكاء الاصطناعي.
وقال هوسون: “إن إدارة الغذاء والدواء تنظم الرعاية الصحية والأجهزة الطبية”. “هناك أطر لذلك، لكنها لا تصل إلى التفاصيل الدقيقة.”
في مجال التمويل، التفاصيل هي المفتاح. وأشار هوسون إلى أن الرمز البريدي، على سبيل المثال، لا يمكن استخدامه في قرارات الائتمان، لأنه يمكن أن يكون بمثابة وكيل للعرق، وهو شكل من أشكال التمييز المعروف باسم الخط الأحمر.
وقال هاتون: “ليست مجرد ممارسة جيدة أن يكون لديك نماذج قابلة للتفسير وشفافة. إنه مطلب”. “تريد الهيئة التنظيمية التأكد من أن النماذج ليست متحيزة – وأنها لا تستهدف فئة عمرية معينة، أو خلفية عرقية، أو عرق، أو جنس.”
إذا انتهك نموذج الذكاء الاصطناعي هذه اللوائح لأن منشئيه لم يأخذوها في الاعتبار بشكل كافٍ، فسيتعرض كل من البائع والمستخدم للخطر. ونظرًا للتطبيق الجغرافي الواسع للعديد من النماذج، فمن المستحسن اتباع نهج عام – مع الاهتمام بالقوانين الخاصة بالصناعة والقوانين المحلية. ومن ثم، يمكن لبطاقات الأداء أن تساعد المؤسسات على تسويق منتجاتها للعملاء الذين يعملون في ظل هذه القيود وتكون بمثابة وسيلة للتفاوض على شروط الخدمة.
ومع ذلك، فإن تقلبات السوق تؤدي إلى تعقيد استخدام بطاقات الأداء. وأشار هوتون إلى أن الجميع لن يرغبوا في الحصول على المنتج الأكثر إحكامًا. وقال: “إذا كنت تنظم بشكل صارم في الجغرافيا أ، ولكنك لا تفعل ذلك في الجغرافيا ب، فستواجه تحديات الميزة التنافسية”. “إنه شيء تحاول كل حكومة التعامل معه في الوقت الحالي.”
تجميع بطاقة الأداء الأخلاقي
تعد بطاقات الأداء الأخلاقية وثائق معقدة – فهي خاصة جدًا بالصناعات والعملاء الأفراد. وهي تعرض العوامل الأخلاقية ذات الصلة المدرجة في بطاقات النموذج التي تم تجميعها أثناء إنشاء النموذج.
وقال هوتون: “سيتضمن هذا التوثيق أشياء مثل البيانات التي تم التدريب عليها، وما هي الأساليب التي تم اتباعها، مما يبرر أن الميزة عادلة”. “يتم جمعها في وثيقة ضخمة تشرح كل الأشياء التي تدخل في الميزات التي تدخل في النموذج نفسه.”
تستخرج بطاقة الأداء الأخلاقية المعلومات المتعلقة بمصدر البيانات وتنظيمها، وتفسير كيفية نشر البيانات، والقيود المفروضة على النموذج، والتحيزات المحتملة، وحماية حقوق الخصوصية، وقدرة البشر على التدخل. ثم يقوم بتوثيق تقاطع هذه القضايا مع الامتثال.
لكن عملية التسجيل معقدة أيضًا. لم يتم بعد تنفيذ التوحيد والمقاييس الموضوعية لتسجيل هذه العوامل على نطاق واسع. وعلى الرغم من سهولة الوصول إلى هذه المعلومات نسبيًا بالنسبة لبعض تطبيقات التعلم الآلي، إلا أن ماجستير إدارة الأعمال (LLM) والمكونات الأخرى للذكاء الاصطناعي الوكيل أكثر غموضًا. إنها تعمل بطرق غير مفهومة تمامًا حتى لمنشئيها، مما يجعل من الصعب تسجيلها بدقة.
وحذر هوتون، في إشارة إلى أنظمة الذكاء الاصطناعي المتقدمة، قائلا: “إنهم ببساطة أقرب إلى الصندوق الأسود مما كانوا عليه من قبل”. “ماذا يعني ذلك بالنسبة لقابلية التفسير؟ ليس لدي إجابة جيدة عن ذلك حتى الآن، ولكن أعتقد أنه سيكون اتجاهًا يحتاج الجميع إلى فهمه.” كما دق Howson ناقوس الخطر على LLMs. وقالت: “في الأصل، تم اختبار ماجستير إدارة الأعمال للتأكد من دقتها”. كان مدى قدرتهم على توليد الإجابات الصحيحة هو مقياس التقييم الأساسي. وكثيراً ما جاء التركيز على الأداء على حساب الشفافية والاعتبارات الأخلاقية.
وقالت: “بالنسبة للجزء الأكبر، لا تتمتع شهادات LLM بالشفافية. فنحن لا نعرف المجموعة الكاملة من البيانات التي تم تدريب نماذج GPT عليها”، مما يؤكد حاجة الشركات إلى تبني “الأخلاقيات حسب التصميم”، وهي ممارسة دمج المبادئ الأخلاقية – الشفافية، والمساءلة، والعدالة – في عملية التطوير منذ البداية.
تقدم المعايير، مثل التقييم الشامل لنماذج اللغة في جامعة ستانفورد، إرشادات حول تسجيل السلامة والتحيز، مما قد يوفر قيمة للمؤسسات أو العملاء الذين يعتمدون على هذه الصفات لضمان سمعتهم.
وفي غضون ذلك، من المرجح أن تكون بطاقات الأداء الأخلاقية حتى ذات التصميم الفظ مصدر قوة للبائعين والمؤسسات على حد سواء أثناء تعاملهم مع تنفيذ الذكاء الاصطناعي وعواقبه.
بطاقة الأداء الأخلاقية لأنظمة الذكاء الاصطناعي: معايير التقييم
نظام التسجيل
-
الأداء الضعيف: هناك حاجة إلى تحسينات كبيرة.
-
أقل من المتوسط: تم استيفاء بعض المعايير، ولكن لا تزال هناك فجوات كبيرة.
-
متوسط: يلبي الحد الأدنى من المعايير الأخلاقية.
-
جيد: يتجاوز المتطلبات الأخلاقية الأساسية في معظم المجالات.
-
ممتاز: يتوافق تمامًا مع المبادئ الأخلاقية وأفضل الممارسات.
تعليمات الاستخدام
-
تقييم كل فئة من خلال الإجابة على الأسئلة الرئيسية وتخصيص درجة من 1 إلى 5.
-
تقديم التعليقات لشرح الأساس المنطقي وراء كل نتيجة أو تسليط الضوء على مجالات التحسين.
-
استخدم بطاقة الأداء لتحديد نقاط القوة والضعف في نظام الذكاء الاصطناعي وتحديد أولويات التحسينات الأخلاقية.
مصدر: تم إنشاء نموذج بطاقة الأداء بواسطة نموذج اللغة الكبير الداخلي لشركة Informa TechTarget، استنادًا إلى إرشادات وأطر عمل الذكاء الاصطناعي الأخلاقية الراسخة من مصادر بما في ذلك المبادئ التوجيهية الأخلاقية للمفوضية الأوروبية للذكاء الاصطناعي الجدير بالثقة، ومبادرة IEEE العالمية بشأن أخلاقيات الأنظمة المستقلة والذكية، والتقييم الشامل لستانفورد لنماذج اللغة.




