تقوم الحكومة بإعادة تسمية معهد السلامة من الذكاء الاصطناعي والفرق مع الأنثروبور

سيستخدم بيتر كايل ، وزير الخارجية للعلوم والابتكار والتكنولوجيا. مؤتمر أمن ميونيخ كمنصة لإعادة تسمية المملكة المتحدة معهد السلامة من الذكاء الاصطناعي إلى معهد أمن الذكاء الاصطناعي.
وفقًا لبيان صادر عن وزارة العلوم والابتكار والتكنولوجيا ، فإن الاسم الجديد “يعكس [the AI Security Institute’s] ركز على مخاطر الذكاء الاصطناعي الخطيرة مع الآثار الأمنية ، مثل كيفية استخدام التكنولوجيا لتطوير الأسلحة الكيميائية والبيولوجية ، وكيف يمكن استخدامها لتنفيذ هجمات الإنترنت ، وتمكين جرائم مثل الاحتيال والاعتداء الجنسي على الأطفال “.
وقالت الحكومة إن معهد أمن الذكاء الاصطناعي لن يركز على التحيز أو حرية التعبير ، ولكن على تعزيز فهم أخطر المخاطر التي تشكلها تقنية الذكاء الاصطناعي. وقالت الإدارة إن حماية الأمن القومي في بريطانيا وحماية المواطنين من الجريمة ستصبح مبادئ تأسيس لنهج المملكة المتحدة تجاه التنمية المسؤولة للذكاء الاصطناعي.
سيضع كايل رؤيته لمعهد أمن الذكاء الاصطناعى في ميونيخ ، بعد أيام فقط من انتهاء قمة عمل الذكاء الاصطناعى في باريس، حيث رفضت المملكة المتحدة والولايات المتحدة التوقيع على اتفاق بشأن الذكاء الاصطناعي الشامل والمستدام (AI). وسيقوم أيضًا ، وفقًا للبيان ، “بإزالة الاتفاقية الجديدة” التي تم ضربها بين المملكة المتحدة وشركة الذكاء الاصطناعى الإنسان.
وفقًا للبيان: “هذه الشراكة هي عمل وحدة الذكاء الاصطناعى السيادي الجديد في المملكة المتحدة ، وسترى كلا الجانبين يعملان معًا بشكل وثيق لتحقيق فرص التكنولوجيا ، مع التركيز المستمر على التطوير المسؤول ونشر أنظمة الذكاء الاصطناعي.”
ستضع المملكة المتحدة اتفاقيات أخرى مع “قيادة شركات الذكاء الاصطناعى” كركن رئيسي لخطة الحكومة التي تركز على التغيير للتغيير.
قال كايل: “إن التغييرات التي أعلنتها اليوم تمثل الخطوة التالية المنطقية في كيفية تعاملنا مع تطوير الذكاء الاصطناعى المسؤولة – مما يساعدنا على إطلاق العنان لمنظمة العفو الدولية وتنمية الاقتصاد كجزء من خطتنا للتغيير.
“لن يتغير عمل معهد أمن الذكاء الاصطناعي ، لكن هذا التركيز المتجدد سيضمن أن مواطنينا – ومواطني حلفائنا – محميون من أولئك الذين يتطلعون إلى استخدام الذكاء الاصطناعي ضد مؤسساتنا وقيمنا الديمقراطية وطريقة الحياة.
“إن الوظيفة الرئيسية لأي حكومة هي ضمان أن مواطنيها آمنين ومحميين ، وأنا واثق من أن الخبرة التي سيتمكن معهدنا الأمنية من الذكاء الاصطناع أولئك الذين يتطلعون إلى استخدام هذه التكنولوجيا ضدنا. “
سيعمل معهد أمن الذكاء الاصطناعي مع مختبر علوم وتكنولوجيا الدفاع، منظمة العلوم والتكنولوجيا التابعة لوزارة الدفاع ، لتقييم المخاطر التي يطرحها القسم “Frontier AI”. ستعمل أيضًا مع مختبر أبحاث أمن الذكاء الاصطناعي (LASR) ، ومجتمع الأمن القومي ، بما في ذلك بناء خبرة المركز الوطني للأمن السيبراني.
سيطلق معهد أمن الذكاء الاصطناعي فريقًا جديدًا لإساءة استخدام إساءة الاستخدام الجنائية والذي سيعمل بشكل مشترك مع وزارة الداخلية لإجراء البحوث حول مجموعة من القضايا الجريمة والأمن. سيكون أحد مجالات التركيز هذا على معالجة استخدام الذكاء الاصطناعي لجعل صور الاعتداء الجنسي على الأطفال ، مع استكشاف هذا الفريق الجديد للمساعدة في منع المعتدين من تسخير الذكاء الاصطناعي لارتكاب جريمة. سيؤدي ذلك إلى دعم العمل الذي تم الإعلان عنه مسبقًا والذي يجعل من غير القانوني امتلاك أدوات الذكاء الاصطناعى والتي تم تحسينها لصور الاعتداء الجنسي على الأطفال.
وقال رئيس معهد أمن الذكاء الاصطناعى ، إيان هوغارث: “كان تركيز المعهد منذ البداية على الأمن وقمنا ببناء فريق من العلماء يركزون على تقييم المخاطر الخطيرة للجمهور. يمثل فريق سوء الاستخدام الجنائي الجديد لدينا وتعميق الشراكة مع مجتمع الأمن القومي المرحلة التالية من معالجة هذه المخاطر “.
وأضاف Dario Amodei ، الرئيس التنفيذي والمؤسس المشارك لـ Anthropic: “لدى الذكاء الاصطناعى القدرة على تحويل كيفية تخدم الحكومات مواطنيها. نتطلع إلى استكشاف كيف يمكن أن يساعد مساعد Claud في AI Hothologic وكالات حكومة المملكة المتحدة على تعزيز الخدمات العامة ، بهدف اكتشاف طرق جديدة لجعل المعلومات والخدمات الحيوية أكثر كفاءة ومتاحة للسكان في المملكة المتحدة.
“سنستمر في العمل عن كثب مع معهد أمن AI في المملكة المتحدة للبحث وتقييم قدرات الذكاء الاصطناعي من أجل ضمان النشر الآمن.”