تقوم OpenAI بإنشاء فريق إشراف جديد، وتبدأ في تدريب النموذج التالي
الرئيس التنفيذي لشركة OpenAI سام ألتمان يتحدث خلال مؤتمر Microsoft Build في مقر Microsoft في ريدموند، واشنطن، في 21 مايو 2024.
جيسون ريدموند | فرانس برس | صور جيتي
قالت OpenAI يوم الثلاثاء إنها أنشأت لجنة للسلامة والأمن بقيادة كبار المسؤولين التنفيذيين، بعد حل مجلس الرقابة السابق في منتصف مايو.
وقالت الشركة إن اللجنة الجديدة ستكون مسؤولة عن تقديم توصيات إلى مجلس إدارة OpenAI “بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI”.
يأتي ذلك في الوقت الذي أعلن فيه مطور المساعد الافتراضي ChatGPT أنه بدأ تدريب “النموذج الحدودي التالي”.
شركة قال في منشور مدونة أنها تتوقع “الأنظمة الناتجة لتنقلنا إلى المستوى التالي من القدرات في طريقنا نحو الذكاء الاصطناعي العام”، أو الذكاء العام الاصطناعي – الذي يرتبط بالذكاء الاصطناعي الذي يكون ذكيًا أو أكثر ذكاءً من البشر.
ويأتي بعد ذلك تشكيل فريق رقابي جديد قام OpenAI بحل فريق سابق والتي ركزت على المخاطر طويلة المدى للذكاء الاصطناعي. وقبل ذلك، كان كل من قائدي الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، وأعلنوا رحيلهم من مايكروسوفت-بدء التشغيل المدعوم.
كانت سلامة الذكاء الاصطناعي في طليعة نقاش أكبر، حيث أصبحت النماذج الضخمة التي تدعم تطبيقات مثل ChatGPT أكثر تقدمًا. يتساءل مطورو منتجات الذكاء الاصطناعي أيضًا عن موعد وصول الذكاء الاصطناعي العام وما هي المخاطر التي ستصاحبه.
بريت تايلور، وآدم دانجيلو، ونيكول سيليجمان، وجميعهم أعضاء في مجلس إدارة OpenAI، هم الآن أعضاء في لجنة السلامة الجديدة إلى جانب ألتمان.
كتب Leike هذا الشهر أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت أمام المنتجات اللامعة”. ردًا على رحيله، قال ألتمان على منصة التواصل الاجتماعي X إنه حزين لرؤية رحيل ليك، مضيفًا أن OpenAI “لديها الكثير لتفعله”.
على مدار التسعين يومًا القادمة، ستقوم مجموعة السلامة بتقييم عمليات OpenAI والضمانات ومشاركة توصياتها مع مجلس إدارة الشركة. ستقدم OpenAI تحديثًا للتوصيات التي اعتمدتها في وقت لاحق.
– ساهم هايدن فيلد من CNBC في هذا التقرير.