أخبار التقنية

أعلنت شركة OpenAI عن تشكيل لجنة مستقلة جديدة للإشراف على السلامة


يتحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، خلال مؤتمر Microsoft Build في المقر الرئيسي لشركة Microsoft في ريدموند، واشنطن، في 21 مايو 2024.

جيسون ريدموند | وكالة الصحافة الفرنسية | صور جيتي

قالت شركة OpenAI يوم الاثنين إن لجنة السلامة والأمن التابعة لها، والتي شكلتها الشركة في مايو/أيار عندما تعاملت مع الجدل حول عمليات الأمن، ستصبح لجنة إشراف مستقلة تابعة لمجلس الإدارة.

سيترأس المجموعة زيكو كولتر، مدير قسم التعلم الآلي في كلية علوم الكمبيوتر بجامعة كارنيجي ميلون. ومن بين الأعضاء الآخرين آدم دانجيلو، عضو مجلس إدارة OpenAI والمؤسس المشارك لـ Quora، ورئيس وكالة الأمن القومي السابق وعضو مجلس الإدارة. بول ناكاسوني، و نيكول سيليجمان، نائب الرئيس التنفيذي السابق لشركة سوني.

وقالت الشركة إن اللجنة ستشرف على “عمليات السلامة والأمان التي توجه نشر وتطوير نموذج OpenAI”. وقد اختتمت مؤخرًا مراجعتها التي استمرت 90 يومًا لتقييم عمليات OpenAI والضمانات ثم قدمت توصيات إلى مجلس الإدارة. وتنشر OpenAI نتائج المجموعة كإعلان عام. تدوينة.

OpenAI، مايكروسوفت– شركة ناشئة مدعومة من ChatGPT و بحثGPTتسعى شركة Thrive Capital حاليًا إلى جولة تمويلية من شأنها أن تقدر قيمة الشركة بأكثر من 150 مليار دولار، وفقًا لمصادر مطلعة على الموقف طلبت عدم ذكر اسمها لأن تفاصيل الجولة لم يتم الكشف عنها بعد. قائد الجولة وتخطط لاستثمار مليار دولار، تايجر جلوبال تخطط للانضمام أيضًا. مايكروسوفت، نفيديا و تفاحة نكون يقال كما تجري محادثات للاستثمار.

وتضمنت التوصيات الخمس الرئيسية للجنة الحاجة إلى إنشاء حوكمة مستقلة للسلامة والأمن، وتعزيز التدابير الأمنية، والشفافية بشأن عمل OpenAI، والتعاون مع المنظمات الخارجية؛ وتوحيد أطر السلامة في الشركة.

في الأسبوع الماضي، أصدرت شركة OpenAI نموذج o1، وهو نسخة معاينة لنموذج الذكاء الاصطناعي الجديد الذي يركز على التفكير و”حل المشكلات الصعبة”. وقالت الشركة إن اللجنة “راجعت معايير السلامة والأمان التي استخدمتها شركة OpenAI لتقييم مدى ملاءمة OpenAI o1 للإطلاق”، بالإضافة إلى نتائج تقييم السلامة.

وستقوم اللجنة “بالتعاون مع مجلس الإدارة بكامل هيئته، بممارسة الرقابة على عمليات إطلاق النماذج، بما في ذلك الحصول على سلطة تأخير الإطلاق حتى تتم معالجة المخاوف المتعلقة بالسلامة”.

في حين كانت OpenAI في وضع النمو المفرط منذ أواخر عام 2022، عندما أطلقت ChatGPT، فقد كانت في نفس الوقت مليئة بالجدال و رحيل الموظفين رفيعي المستوى، مع قلق بعض الموظفين الحاليين والسابقين من أن الشركة تنمو بسرعة كبيرة بحيث لا تتمكن من العمل بأمان.

في يوليو/تموز، أرسل أعضاء مجلس الشيوخ الديمقراطيون خطاب إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان بشأن “الأسئلة حول كيفية تعامل OpenAI مع المخاوف الأمنية الناشئة”. في الشهر السابق، نشرت مجموعة من موظفي OpenAI الحاليين والسابقين تقريرًا رسالة مفتوحة ووصف المخاوف بشأن الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.

وفي مايو، تحدث أحد أعضاء مجلس إدارة OpenAI السابقين عن ألتمان إقالة مؤقتة في نوفمبر، قال هو قدم إلى المجلس “معلومات غير دقيقة حول العدد الصغير من عمليات السلامة الرسمية التي كانت الشركة تطبقها” في مناسبات متعددة.

في ذلك الشهر، قررت OpenAI قررت شركة مايكروسوفت حل فريقها الذي يركز على المخاطر طويلة الأجل للذكاء الاصطناعي بعد عام واحد فقط من الإعلان عن المجموعة. أعلن قادة الفريق، إيليا سوتسكيفر ويان لايكي، أعلنوا رحيلهم من OpenAI في مايو. كتب Leike في منشور على X أن “ثقافة السلامة والعمليات الخاصة بـ OpenAI أصبحت في المرتبة الثانية بعد المنتجات اللامعة”.

يشاهد: OpenAI هي الشركة الرائدة بلا منازع في دورة الذكاء الاصطناعي الفائقة

يقول أبورف أجراوال من شركة ألتيميتر كابيتال إن شركة OpenAI هي الشركة الرائدة بلا منازع في دورة الذكاء الاصطناعي الفائقة



Source link

زر الذهاب إلى الأعلى