Ada Lovelace: استخدام قوى السوق إلى Professionalise AI ضمان

إن استخدام حوافز السوق للمهنية ، سيتطلب مجال ضمان الذكاء الاصطناعي (AI) بدلاً من التنظيم الرسمي من المؤسسات إنشاء تعريفات وممارسات مشتركة ، وفقًا لمعهد Ada Lovelace (ALI).
وقالت المجموعة إن احتراف ضمان الذكاء الاصطناعى – بما في ذلك ممارسة عمليات التدقيق الخوارزمية ، وتقييم الجمهور الأحمر وتقييمات التأثير – يمكن أن يساعد الشركات على إظهار الجدارة بشكل أكثر وضوحًا مع تقليل الأضرار المحتملة المرتبطة بمجموعة من منتجات الذكاء الاصطناعى.
لكن، في تقرير نُشر في 10 يوليو 2025قال علي أنه بينما تم تحفيز ضمان الذكاء الاصطناعى حتى الآن إلى حد ما من قبل اللوائح ، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي أو مدينة نيويورك القانون المحلي 144، تم تخفيف الشهية لمزيد من وضع القواعد على الذكاء الاصطناعي بواسطة أ تحول سياسي ملحوظ نحو إلغاء القيود على الصعيد العالمي.
داخل أ السياق السياسي عندما يكون من المحتمل أن تتم إزالة “الامتثال التنظيمي كحافز للشركات لتبني ضمان” ، تحدث Ali مع عدد من الممارسين الحاليين حول كيفية استخدام رافعات السوق لتحفيز الاحتراف في مجال ضمان الذكاء الاصطناعي الناشئ.
وقالت: “قد توفر القوات التي تعتمد على السوق ، مثل منع الأضرار السمعة الناجمة عن أنظمة غير مؤهلة وزيادة الأداء وزيادة ثقة العملاء ، حافزًا تنافسيًا للشركات لتبني ضمان طوعًا”.
“وبالمثل ، يمكن أن يشير اعتماد التأكيد إلى المستثمرين الفرديين والمؤسسيين على أن الشركة قد قللت من مخاطر الفشل البارز أو عالية التكلفة. هذه الاستراتيجيات موجودة بالفعل كحوافز للشركات ، وأن احتراف ضمان الذكاء الاصطناعي يمكن أن يدعم هذه الأهداف بشكل أفضل.”
وأضاف علي أن “المناخ الاقتصادي السياسي غير المؤكد” يؤكد أيضًا على الحاجة إلى “الأطر التكيفية” التي يمكن أن تتطور إلى جانب كل من التكنولوجيا و متزايد من الأدلة حول ما يبدو عليه ضمان الذكاء الاصطناعي.
في توصياتها الخاصة بممارسي الضمان ومنظماتهم ، قال علي إن هذه الأطر سوف تحتاج إلى التمييز بين أنظمة الذكاء الاصطناعى بشكل عام وتلك المستخدمة في السياقات الأضيق ، من حيث كل من الكفاءات الفنية والقانونية العملية اللازمة لضمان كل نوع من أنواع النظام، وكذلك المعايير التي يجب تطبيقها على كل منها.
وقال “من أجل ضمان الذكاء الاصطناعى للمهنيين ، يحتاج المجال إلى تحديد المعرفة والممارسات الأساسية التي يجب أن يشاركها ممارسيها” ، مضيفًا أنه إذا كانت هذه محددة بشكل ضيق أو صارم ، فقد لا يحصلون على المجموعة الكاملة من المخاطر ، ولا مواكبة تطور تقنيات الذكاء الاصطناعي.
“قد تكون الكفاءات الفعالة اليوم غير كافية بالنسبة للأنظمة الناشئة ، خاصةً مع إدخال القدرات الجديدة مخاطر جديدة. في الوقت نفسه ، دون اتفاق على ما يجب أن يعرفه الممارسون ويفعلونه ، سيواجه المجال بناء هوية مهنية متماسكة.”
وأضاف علي أيضًا أنه على الرغم من أن ممارسي الضمان يفتقرون حاليًا إلى مجموعة من المعايير المقبولة عالميًا لتقييم أنظمة الذكاء الاصطناعى ، ضد ، لا يوجد إجماع على من يجب أن يضعها.
وقال: “بعيدًا عن كونها عملية غير سياسية ، تقدم المعايير فرصة لأصحاب المصلحة الذين يسعون للتأثير على ما يستلزمه التأكيد ومن يحددها”. “إن أدلةنا تعكس هذه الديناميكية ، حيث اقترح المشاركون من العديد من المنظمات المختلفة أن منظماتهم الخاصة كانت أفضل وضع في وضع تطوير قياسي.”
بدلاً من اللوائح التي تركز على الذكاء الاصطناعى ، أبرز ALI كيف يمكن أن تكون كل من الكفاءات والمعايير مدفوعة الشركات التي تبتكر على سلامة الذكاء الاصطناعي.
“لقد صمم مهندس في فولفو ، شركة الأمان” ثلاث نقاط “التي أصبحت الآن عالمية لجميع مركبات السيارات اليوم ، شركة فولفو ، في عام 1959.
“مع اندلاع الصناعة حول اعتماد الحزام من ثلاث نقاط ، أجاب اللوائح: في المملكة المتحدة ، أصبح إنتاج حزام الأمان في السيارات قانونًا لمصنعي السيارات في عام 1965 ، مع شرط السائقين والركاب في عامي 1983 و 1991 على التوالي … قد يوضح النشر الواسع للمعايير والأساليب لضمان الذكاء الاصطناعى فوائد مماثلة.”
وأضاف ALI أنه على الرغم من أن هذا المثال يوضح كيف يمكن لممارسات التأكيد التي يتم تشغيلها داخليًا أن تخلق فائدة وتأثيرًا تتجاوز مستوى الشركة ، فضيحة الانبعاثات فولكس واجن يقدم مثالاً على كيفية استخدام معايير التأكيد الداخلية لتبييض الممارسات غير الأخلاقية.
وقالت: “وفقًا لذلك ، يجب أن تكون ممارسات الضمان مدعومة بآليات المساءلة والإنفاذ لحماية الشركات والأشخاص والمجتمع من الأذى ، في حالات فشل فيها التأكيد أو تم إحباطها”.
ومع ذلك ، فإن أولئك الذين تحدثوا إليهم كانوا واضحين أيضًا أنه بدون تنظيم ، وعلى وجه الخصوص ، أنظمة المسؤولية عن الذكاء الاصطناعى – والتي من شأنها أن تنشئ الدرابزين الصارم ودعم الأشخاص الذين يسعون إلى تعويض قانوني – لم يكن هناك حافز كاف لتبني ممارسات ضمان: “لقد شعر أحد الشخصيات التي تعمل على شهادة AI أن المسار الأكثر وضوحًا للاحتراف على الصناعة سيأتي من انضغام المراقبين”.
في نهاية المطاف ، ما إذا كان يتم دفع الاحتراف بحوافز حكومية أو حوافز السوق ، فسيحتاج كلاهما إلى استخدام أكبر تأثير.
وقال علي: “نستنتج أن هناك فرصة كبيرة لائتلاف الجهات الفاعلة من أصحاب المصلحة المتعددة للتعاون لدعم احتراف ضمان الذكاء الاصطناعي ، بما في ذلك المجتمع المدني ، والهيئات الصناعية ، ومنظمات تنمية المعايير الدولية وصانعي السياسات الوطنية”.
“مثل هذه الجهود ، كما ذكرنا ، سوف تتطلب الدعم من صانعي السياسات والمنظمين – على سبيل المثال ، صانعي السياسات الذين يقومون بتمويل مبادرات أو إعانات لدعم امتصاص مخططات الشهادات.”
في نوفمبر 2024 ، أطلقت حكومة المملكة المتحدة منصة لضمان الذكاء الاصطناعى المصممة لمساعدة الشركات في جميع أنحاء البلاد على تحديد وتخفيف المخاطر والأضرار المحتملة التي تسببها التكنولوجيا ، كجزء من دفعة أوسع لدعم قطاع ضمان الذكاء الاصطناعي في المملكة المتحدة.
“أساسيات إدارة الذكاء الاصطناعي [AIME] وقال أ تقرير حكومي عن مستقبل ضمان الذكاء الاصطناعي في المملكة المتحدة في ذلك الوقت.
“ستكون أداة التقييم الذاتي متاحًا لمجموعة واسعة من المنظمات ، بما في ذلك الشركات الصغيرة والمتوسطة. على المدى المتوسط ، نتطلع إلى تضمين هذا في سياسة المشتريات الحكومية والأطر لدفع اعتماد تقنيات الضمان والمعايير في القطاع الخاص.”




