أخبار التقنية

تكشف حكومة المملكة المتحدة عن تفاصيل تمويل أبحاث سلامة الذكاء الاصطناعي


أطلقت حكومة المملكة المتحدة رسميًا برنامجًا للبحث والتمويل مخصصًا لتحسين “سلامة الذكاء الاصطناعي النظامية”، والذي سيشهد منحًا تصل إلى 200 ألف جنيه إسترليني للباحثين الذين يعملون على جعل التكنولوجيا أكثر أمانًا.

تم إطلاق برنامج منح السلامة النظامية بالشراكة مع مجلس أبحاث العلوم الهندسية والفيزيائية (EPSRC) وInnovate UK، وهو جزء من المملكة المتحدة للأبحاث والابتكار (UKRI)، وسيتم تقديم برنامج منح السلامة النظامية من قبل معهد سلامة الذكاء الاصطناعي (AISI) في المملكة المتحدة، والذي من المتوقع أن لتمويل حوالي 20 مشروعًا خلال المرحلة الأولى من المخطط بمبلغ أولي قدره 4 ملايين جنيه إسترليني.

سيتم بعد ذلك توفير أموال إضافية مع إطلاق مراحل أخرى، مع تخصيص 8.5 مليون جنيه إسترليني للمخطط بشكل عام.

تم إنشاء AISI في الفترة التي سبقت انعقاد قمة المملكة المتحدة لسلامة الذكاء الاصطناعي في نوفمبر 2023 المكلف بالفحص، تقييم واختبار أنواع جديدة من الذكاء الاصطناعي، وهو تتعاون بالفعل مع نظيرتها الأمريكية لمشاركة القدرات وبناء أساليب مشتركة لاختبار سلامة الذكاء الاصطناعي.

مع التركيز على كيفية حماية المجتمع من مجموعة من المخاطر المرتبطة بالذكاء الاصطناعي – بما في ذلك التزييف العميق والمعلومات المضللة والهجمات السيبرانية – سيهدف برنامج المنح إلى البناء على عمل AISI من خلال تعزيز ثقة الجمهور في التكنولوجيا، مع وضع المملكة المتحدة أيضًا في المقدمة. قلب تطوير الذكاء الاصطناعي “المسؤول والجدير بالثقة”.

المخاطر الحرجة

وسيهدف البحث أيضًا إلى تحديد المخاطر الحاسمة لاعتماد الذكاء الاصطناعي الرائد في القطاعات الحيوية مثل الرعاية الصحية وخدمات الطاقة، وتحديد العروض المحتملة التي يمكن بعد ذلك تحويلها إلى أدوات طويلة الأجل تعالج المخاطر المحتملة في هذه المجالات.

قال السكرتير الرقمي بيتر كايل: “ينصب تركيزي على تسريع اعتماد الذكاء الاصطناعي في جميع أنحاء البلاد حتى نتمكن من إطلاق النمو وتحسين الخدمات العامة”. “لكن الأمر الأساسي في هذه الخطة هو تعزيز ثقة الجمهور في الابتكارات التي تحقق بالفعل تغييرًا حقيقيًا.

وقال: “هذا هو المكان الذي يأتي فيه برنامج المنح هذا”. “من خلال الاستفادة من مجموعة واسعة من الخبرات من الصناعة إلى الأوساط الأكاديمية، نحن ندعم البحث الذي سيتأكد من أنه عندما نقوم بنشر أنظمة الذكاء الاصطناعي في جميع أنحاء اقتصادنا، يمكن أن تكون آمنة وجديرة بالثقة عند نقطة التسليم.”

ستكون المنظمات التي تتخذ من المملكة المتحدة مقراً لها مؤهلة للتقدم بطلب للحصول على تمويل المنحة عبر موقع ويب مخصص، وستهدف المرحلة الافتتاحية للبرنامج إلى تعميق التفاهمات حول التحديات التي من المحتمل أن يفرضها الذكاء الاصطناعي على المجتمع في المستقبل القريب.

يمكن أن تشمل المشاريع أيضًا شركاء دوليين، مما يعزز التعاون بين المطورين ومجتمع أبحاث الذكاء الاصطناعي مع تعزيز النهج العالمي المشترك للنشر الآمن للتكنولوجيا وتطويرها.

الموعد النهائي الأولي لتقديم المقترحات هو 26 نوفمبر 2024، وسيتم تأكيد المتقدمين الناجحين بحلول نهاية يناير 2025 قبل الحصول على التمويل رسميًا في فبراير. وقال إيان هوغارث، رئيس AISI: “يسمح لنا برنامج المنح هذا بتعزيز الفهم الأوسع حول الموضوع الناشئ المتمثل في سلامة الذكاء الاصطناعي النظامي”. “وسوف يركز على تحديد وتخفيف المخاطر المرتبطة بنشر الذكاء الاصطناعي في قطاعات محددة يمكن أن تؤثر على المجتمع، سواء كان ذلك في مجالات مثل التزييف العميق أو احتمال فشل أنظمة الذكاء الاصطناعي بشكل غير متوقع.

“من خلال الجمع بين الأبحاث من مجموعة واسعة من التخصصات والخلفيات في هذه العملية للمساهمة في قاعدة أوسع من أبحاث الذكاء الاصطناعي، فإننا نبني أدلة تجريبية حول الأماكن التي يمكن أن تشكل فيها نماذج الذكاء الاصطناعي مخاطر حتى نتمكن من تطوير نهج شامل لسلامة الذكاء الاصطناعي. من أجل الصالح العام العالمي.”

كما أكد بيان صحفي صادر عن وزارة العلوم والابتكار والتكنولوجيا (DSIT) الذي يوضح تفاصيل خطة التمويل، على موقف حزب العمال. البيان والالتزام بإدخال تشريعات شديدة الاستهداف لعدد قليل من الشركات التي تعمل على تطوير أقوى نماذج الذكاء الاصطناعي، مضيفًا أن الحكومة ستضمن “اتباع نهج متناسب تجاه التنظيم بدلاً من القواعد الشاملة الجديدة بشأن استخدامه”.

وفي مايو 2024، أعلنت AISI أنها قامت بذلك افتتحت أول مكاتبها الدولية في سان فرانسيسكو لتحقيق المزيد من التقدم مع شركات الذكاء الاصطناعي الرائدة التي يقع مقرها الرئيسي هناك، مثل انثروفي و أوبن إيه آي.

وفي نفس الإعلان، AISI أيضا أصدرت علنًا نتائج اختبار سلامة نموذج الذكاء الاصطناعي لأول مرة.

ووجدت أن أياً من نماذج اللغات الكبيرة الخمسة المتاحة للجمهور (LLMs) التي تم اختبارها لم تكن قادرة على القيام بمهام أكثر تعقيداً وتستغرق وقتاً طويلاً دون إشراف البشر عليها، وأن جميعها تظل معرضة بشدة لـ “عمليات كسر الحماية” الأساسية لضماناتها. ووجدت أيضًا أن بعض النماذج ستنتج مخرجات ضارة حتى بدون محاولات مخصصة للتحايل على هذه الضمانات.

ومع ذلك، ادعت AISI أن النماذج كانت قادرة على إكمال تحديات الأمن السيبراني الأساسية والمتوسطة، وأن العديد منها أظهر مستوى معادلًا لدرجة الدكتوراه من المعرفة في الكيمياء والبيولوجيا (مما يعني أنه يمكن استخدامها للحصول على المعرفة على مستوى الخبراء وردودهم على العلوم). كانت الأسئلة القائمة على قدم المساواة مع تلك التي قدمها الخبراء على مستوى الدكتوراه).



Source link

زر الذهاب إلى الأعلى