قمة الأخلاقيات الرقمية 2025: المصادر المفتوحة وضمان الذكاء الاصطناعي

ومن الممكن أن يساعد الذكاء الاصطناعي مفتوح المصدر في مكافحة تركزات رأس المال والقوة التي تحدد تطوره حاليا، في حين تحتاج ممارسات الضمان الناشئة إلى التنظيم لتحديد الشكل “الجيد”.
وفي حديثهم في قمة الأخلاقيات الرقمية السنوية التاسعة التي عقدتها رابطة التجارة TechUK في ديسمبر، ناقش المشاركون الديناميكيات المختلفة التي تلعب دورًا في تطوير تقنيات الذكاء الاصطناعي، بما في ذلك الاستخدام غير الكافي لمناهج المصادر المفتوحة، والحاجة إلى ضمان الذكاء الاصطناعي أن تكون مستمرة ومتكررة، ومدى الحاجة إلى التنظيم لإعلام التيار ممارسات الضمان.
خلال فعاليات القمة السابقة – التي عقدت في ديسمبر 2023 و 2024 – شدد المندوبون على الحاجة إلى ترجمة المبادئ الأخلاقية للذكاء الاصطناعي حسنة النية إلى تدابير عملية ملموسة، وسلطوا الضوء على الحاجة إلى أي تنظيم يعترف بالطبيعة الاجتماعية التقنية للذكاء الاصطناعي التي لديها القدرة على إنتاج المزيد من عدم المساواة وتركيز السلطة.
أ الموضوع الرئيسي لهذه المناقشات السابقة كان هو من يملي ويتحكم في كيفية تطوير ونشر التكنولوجيات، ومن يتولى قيادة المناقشات حول ما يعتبر “أخلاقيًا”.
في حين تطرقت المناقشات في قمة 2025 إلى العديد من النقاط نفسها، ركزت المحادثات هذا العام على تطوير النظام البيئي لضمان الذكاء الاصطناعي في المملكة المتحدة، وإلى أي مدى يمكن إضفاء الطابع الديمقراطي على تطوير الذكاء الاصطناعي من خلال أساليب أكثر انفتاحا.
نماذج مفتوحة المصدر والنظم البيئية
في حديث حول فوائد وعيوب نماذج الذكاء الاصطناعي المفتوحة والمغلقة المصدر، لاحظ المتحدثون أن معظم النماذج لا تندرج بدقة في أي من الثنائيات، وبدلاً من ذلك توجد في نطاق، حيث تكون جوانب أي نموذج معين إما مفتوحة أو مغلقة.
ومع ذلك، فقد كانوا واضحين أيضًا أن هناك عددًا قليلًا للغاية من النماذج والأساليب مفتوحة المصدر التي يجري تطويرها.
على سبيل المثال، أشار ماثيو سكواير، كبير مسؤولي التكنولوجيا ومؤسس Fuzzy Labs، إلى أن “الكثير من هذه النماذج مفتوحة المصدر ظاهريًا، وما تقدمه حقًا على أنها مفتوحة هو أوزان النماذج”، وهي في الأساس المعلمات التي يستخدمها النموذج لتحويل بيانات الإدخال إلى مخرجات.
ومع ملاحظة أن الغالبية العظمى من مطوري النماذج لا يفتحون حاليًا جوانب رئيسية أخرى للنموذج، بما في ذلك البيانات الأساسية أو معلمات التدريب أو التعليمات البرمجية، فقد خلص إلى أن معظم النماذج تقع بالتأكيد على الطرف المغلق من الطيف. “[Model weights represent] وقال سكواير: “إن المنتج النهائي لتدريب هذا النموذج، ولكن هناك الكثير من الأشياء التي يجب القيام بها”.
بالنسبة لليندا جريفين، نائبة رئيس السياسة العالمية في موزيلا، في حين أن نماذج الذكاء الاصطناعي لا توجد في ثنائي مفتوح مقابل مغلق، فإن النظم البيئية التي تم تطويرها فيها موجودة.
وسلطت الضوء على كيفية بناء الإنترنت على برمجيات مفتوحة المصدر قبل أن تقوم الشركات الكبيرة مثل مايكروسوفت بإدراجها في البنية التحتية الخاصة بها، وقالت إن هناك ديناميكية مماثلة تلعب اليوم مع الذكاء الاصطناعي، حيث قامت مجموعة قليلة من الشركات – تلك التي تتحكم في الوصول إلى الويب عبر ملكية المتصفحات، والتي بالتالي يمكنها الوصول إلى جبال من بيانات العملاء – بإحاطة مكدس الذكاء الاصطناعي.
قال غريفين: “ما تحتاج حكومة المملكة المتحدة حقًا إلى التفكير فيه الآن هو ما هي استراتيجيتنا طويلة المدى لشراء وتمويل ودعم وتحفيز المزيد من الوصول المفتوح، حتى تتمكن الشركات البريطانية والشركات الناشئة والمواطنون من البناء واختيار ما يجب القيام به”. “هل تريدون أن تقوم الشركات البريطانية ببناء الذكاء الاصطناعي أم بتأجيره؟ في الوقت الحالي، هم يستأجرونه، وهذه مشكلة طويلة الأمد”.
“فرصة لا تحظى بالتقدير”
وأضاف جاكوب موكندر، مدير سياسة العلوم والتكنولوجيا في معهد توني بلير، أن المصدر المفتوح هو “فرصة لا تحظى بالتقدير الكافي” يمكنها مساعدة الحكومات والمنظمات في الحصول على قيمة حقيقية من التكنولوجيا.
مع ملاحظة ذلك تتمتع الأنظمة البيئية المفتوحة المصدر والانفتاح بالكثير من المزايا ومقارنة بالأنظمة المغلقة لتحفيز النمو والابتكار، سلط الضوء على أن الغياب الحالي للنهج المفتوحة يحمل في طياته أيضًا مخاطر كبيرة.
قال مكندر: “ربما يكون غياب المصدر المفتوح خطرًا أكبر، لأنه عندئذ يكون لديك تركيز كبير من الطاقة، إما في أيدي الجهات الحكومية أو فيما يتعلق بشركة أو اثنتين من شركات التكنولوجيا الكبرى”. “سواء نظرت إلى هذا من منظور يحركه النمو أو المعلومات في المقام الأول، أو من منظور يحركه المخاطر، فإنك تريد أن ترى نظامًا بيئيًا مفتوحًا قويًا.”
عندما يتعلق الأمر بالعلاقة بين المصدر المفتوح وضمان الذكاء الاصطناعي، قال رولي آدامز، المهندس الرئيسي في EthicAI، إنها تسمح بتدقيق أكبر لمطالبات المطورين بالمقارنة مع الأساليب المغلقة. “من منظور الضمان، من الواضح أن إمكانية التحقق أمر بالغ الأهمية، وهو أمر مستحيل مع النماذج المغلقة [developers at their] قال: “الكلمة في كل نقطة، بطريقة تعتمد على الإيمان تقريبًا. مع النماذج مفتوحة المصدر، الميزة هي أنه يمكنك فعليًا الذهاب والتحقيق والتجربة والتقييم بطريقة منهجية وشاملة”.
وردا على سؤال من مجلة كمبيوتر ويكلي عما إذا كانت الحكومات بحاجة إلى النظر في تشريعات جديدة لمكافحة الاحتكار لتفكيك مجموعة الذكاء الاصطناعي – نظرا للتركيزات الهائلة للسلطة ورأس المال التي تنبع من سيطرة عدد قليل من الشركات على الوصول إلى البنية التحتية الأساسية – قال المتحدثون إن هناك حاجة ملحة لفهم كيفية هيكلة الأسواق في هذا المجال.
قال غريفين، على سبيل المثال، إن هناك حاجة إلى “تخطيط سيناريو طويل المدى من الحكومة” يأخذ في الاعتبار إمكانية التدخل في السوق إذا لزم الأمر.
وأضاف موكندر أن القدرات المتزايدة للذكاء الاصطناعي يجب أن تسير “جنبًا إلى جنب مع التفكير الجديد بشأن مكافحة الاحتكار وتنويع السوق”، وأنه من المهم “عدم الاعتماد على [on companies] والتي يمكن استخدامها كوسيلة ضغط ضد الحكومة والمصلحة الديمقراطية. وقال: “هذا لا يعني بالضرورة أن عليهم منع الملكية الخاصة، ولكن هذه هي الظروف التي يتم بموجبها تشغيل تلك البنى التحتية”.
هناك حاجة إلى ضمان مستمر
وفي حديثها في لجنة منفصلة حول حالة ضمان الذكاء الاصطناعي في المملكة المتحدة، أشارت ميكايلا كوتسي، رئيسة أخلاقيات وضمان الذكاء الاصطناعي في Advai، إلى أنه نظرًا للطبيعة الديناميكية لأنظمة الذكاء الاصطناعي، فإن الضمان ليس عملية فردية، بل يتطلب بدلاً من ذلك مراقبة وتقييمًا مستمرين.
وقالت: “نظرًا لأن الذكاء الاصطناعي هو مسعى اجتماعي تقني، فإننا بحاجة إلى مهارات ومواهب متعددة الأوجه”. “نحن بحاجة إلى علماء البيانات، ML [machine learning] المهندسين والمطورين. نحن بحاجة إلى أعضاء الفريق الأحمر الذين يبحثون على وجه التحديد عن نقاط الضعف داخل النظام. نحن بحاجة إلى متخصصين في السياسة القانونية والذكاء الاصطناعي والحوكمة. هناك مجموعة كاملة من الأدوار.”
ومع ذلك، كان كوتسي والمشاركون الآخرون واضحين في أنه، في الوضع الراهن، لا تزال هناك حاجة إلى ذلك تحديد مقاييس الضمان بشكل صحيح وتوحيد كيفية اختبار الأنظمةوهو أمر قد يكون صعبًا نظرًا للطبيعة السياقية العالية لعمليات نشر الذكاء الاصطناعي.
على سبيل المثال، أشارت ستيسي هوفمان، رئيسة النمو الاستراتيجي وقسم علوم البيانات والذكاء الاصطناعي في المختبر الفيزيائي الوطني، إلى أنه على الرغم من وجود الكثير من أدوات تقييم الاختبارات إما في السوق أو التي يتم تطويرها داخليًا – والتي يمكن أن تساعد في نهاية المطاف في بناء الثقة في موثوقية وقوة نظام معين – “لا يوجد إطار شامل يقول “هذا هو ما يبدو عليه الاختبار الجيد”.
وسلطت الضوء على كيف يمكن لممارسات الضمان أن توفر نظرة ثاقبة حول ما إذا كان النظام يتصرف كما هو متوقع، أو مدى تحيزه في موقف معين، وأضافت أنه لا يوجد نهج واحد يناسب الجميع. قال هوفمان: “مرة أخرى، إنه محدد السياق للغاية، لذلك لن يكون لدينا أبدًا اختبار واحد يمكنه اختبار النظام لجميع الاحتمالات – ستحتاج إلى جلب عناصر مختلفة من الاختبار بناءً على السياق والخصوصية”.
بالنسبة لكويتسي، فإن إحدى الطرق لتحقيق درجة أكبر من الثقة في التكنولوجيا، بدلاً من القواعد أو اللوائح أو المعايير الرسمية، هي تشغيل تجارب تجريبية محدودة حيث تستوعب النماذج بيانات العملاء، حتى تتمكن المؤسسات من الحصول على إشراف أفضل على كيفية عملها في الممارسة العملية قبل اتخاذ قرارات الشراء.
وقالت: “أعتقد أن الناس لديهم وعي متزايد بالمخاطر المحيطة بهذه الأنظمة الآن… لكننا ما زلنا نرى أشخاصًا يشترون الذكاء الاصطناعي من العروض التقديمية”، مضيفة أن هناك أيضًا حاجة لمزيد من التعاون في جميع أنحاء العالم. النظام البيئي لضمان الذكاء الاصطناعي الناشئ في المملكة المتحدة.
“نحن بحاجة إلى مواصلة العمل على المقاييس … سوف يحدث ذلك [also] سيكون من الرائع أن نفهم ونتعاون أكثر لفهم الضوابط والتخفيفات التي تعمل بالفعل في الممارسة العملية أيضًا، ومشاركتها حتى تتمكن من البدء في الحصول على أنظمة أكثر جدارة بالثقة عبر مختلف القطاعات.
الحصان أو العربة: الضمان مقابل التنظيم
وفي معرض حديثه عن كيفية تطور محادثة الأخلاقيات الرقمية خلال العام الماضي، قال ليام بوث – رئيس الأركان السابق في داونينج ستريت والذي يعمل حاليًا في مجال السياسة والاتصالات والاستراتيجية في أنثروبي ــ أشار إلى أنه في حين تفضل الشركات العالمية مثل نهجه نهج “القاسم المشترك الأعلى” في تنظيم الذكاء الاصطناعي ــ حيث تلتزم الشركات العالمية بأكثر المعايير التنظيمية صرامة الممكنة لضمان الامتثال عبر الولايات القضائية بقواعد مختلفة ــ فلا ينبغي للمملكة المتحدة ذاتها أن “تتعجل نحو التنظيم” قبل أن يكون هناك فهم كامل لقدرات التكنولوجيا أو كيفية تطويرها.
وقال: “بسبب أشياء مثل النهج الناضج للغاية تجاه بيئة الحماية، والنهج المنفتح للغاية للابتكار والتغيير التنظيمي، يمكن أن تكون المملكة المتحدة أفضل مكان في العالم للتجربة والنشر والاختبار”، مضيفًا أنه في حين أن تركيز حكومة المملكة المتحدة على بناء نظام بيئي لضمان الذكاء الاصطناعي أمر إيجابي، إلا أن البلاد لن تكون رائدة عالميًا في التكنولوجيا ما لم تعمل على تكثيف النشر والنشر.
وقال بوث: “لن يكون لديك سوق ضمان رائدة عالميًا، سواء من ناحية المنتج التنظيمي أو التجاري، إذا لم يكن هناك أشخاص يستخدمون التكنولوجيا يرغبون في شراء منتج الضمان”.
ومع ذلك، أشار إلى أن بناء نظام الضمان البيئي يمكن أن يكون مفيدًا لتعزيز الثقة في التكنولوجيا، لأنه سيمنح القطاعين العام والخاص مزيدًا من الثقة لاستخدامها.
“في عالم لا تكون فيه عاصمة مركز البيانات، أو قد لا يكون لديك بالضرورة مزود نموذج حدودي موجود في بلدك، تحتاج إلى الابتكار المستمر والتفكير في مدى أهميتك في ذلك [global] قال بوث: “الطاولة، واستمر في إعادة تكوين نفسك كل بضع سنوات”.
أخذ خطوة إلى الوراء
ومع ذلك، يرى جايا ماركوس، مدير معهد أدا لوفليس، أنه على الرغم من أنه من الإيجابي أن نتحدث عن الضمان بمزيد من التفصيل، “نحن بحاجة إلى اتخاذ خطوة كبيرة إلى الوراء” وتنظيم التكنولوجيا أولا كشرط أساسي لبناء الثقة فيها.
تسليط الضوء تدقيق Ada في يوليو 2023 لتنظيم الذكاء الاصطناعي في المملكة المتحدة – التي وجدت أن “مساحات كبيرة” من الاقتصاد إما غير منظمة أو منظمة جزئيًا فقط عندما يتعلق الأمر باستخدام الذكاء الاصطناعي – وقالت إنه لا توجد قواعد حقيقية خاصة بقطاع معين حول كيفية استخدام الذكاء الاصطناعي كتقنية ذات أغراض عامة في سياقات مثل التعليم أو الشرطة أو التوظيف.
وأضاف ماركوس أن معايير الضمان لتحديد “الشكل الجيد” في مجموعة من سياقات النشر المختلفة لا يمكن تحديدها إلا من خلال التنظيم المناسب.
وقالت: “أنت بحاجة إلى فهم أساسي لما يبدو عليه الخير… إذا كان لديك نظام بيئي للضمان حيث يقرر الناس ما يضمنون مقابله، فأنت تقارن بين التفاح والبرتقال والأزواج”.
وأضاف ماركوس أنه بسبب الضجيج الذي لا هوادة فيه و”زيت الثعبان” حول تكنولوجيا الذكاء الاصطناعي، “نحن بحاجة إلى طرح أسئلة أساسية للغاية” حول فعالية التكنولوجيا ومصالح من تخدم في نهاية المطاف.
وقالت: “نحن نعتمد على هذا الشيء الأساسي حقًا، وهو القياس والتقييم، وإخضاع التقنيات المعتمدة على البيانات والذكاء الاصطناعي إلى نفس المعيار الذي يمكن أن تتبعه أي قطعة أخرى من التكنولوجيا”.




