شركة OpenAI تعيد تعيين ألكسندر مادري، المسؤول التنفيذي الأول عن سلامة الذكاء الاصطناعي، في منصب يركز على التفكير في الذكاء الاصطناعي
أكدت مصادر مطلعة على الوضع لشبكة CNBC أن شركة OpenAI قامت الأسبوع الماضي بإزالة ألكسندر مادري، أحد كبار المسؤولين التنفيذيين في مجال السلامة في OpenAI، من منصبه وأعادت تعيينه في وظيفة تركز على التفكير في الذكاء الاصطناعي.
كان مادري رئيسًا لقسم الاستعداد في OpenAI، وهو الفريق الذي “كان مكلفًا بتتبع وتقييم والتنبؤ والمساعدة في الحماية من المخاطر الكارثية المتعلقة بنماذج الذكاء الاصطناعي الرائدة”، وفقًا لـ السيرة الذاتية لمدري.
وقال OpenAI لشبكة CNBC إن مادري سيواصل العمل على أعمال السلامة الأساسية للذكاء الاصطناعي في منصبه الجديد.
كما يشغل مادري منصب مدير مركز التعلم الآلي القابل للنشر في معهد ماساتشوستس للتكنولوجيا، وهو عضو هيئة تدريس مشارك في منتدى سياسة الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، وهو المنصب الذي يشغله حاليًا في إجازة، وفقًا لبيان الجامعة. موقع إلكتروني.
وجاء قرار إعادة تعيين مادري بعد أقل من أسبوع من قيام مجموعة من أعضاء مجلس الشيوخ الديمقراطيين بإرسال رسالة إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان بشأن “أسئلة حول كيفية تعامل OpenAI مع المخاوف الأمنية الناشئة”.
ال خطابوجاء في مذكرة أرسلت يوم الاثنين واطلعت عليها شبكة سي إن بي سي: “نسعى للحصول على معلومات إضافية من شركة OpenAI حول الخطوات التي تتخذها الشركة للوفاء بالتزاماتها العامة بشأن السلامة، وكيف تقوم الشركة بتقييم تقدمها داخليًا بشأن تلك الالتزامات، وحول تحديد الشركة وتخفيفها لتهديدات الأمن السيبراني”.
ولم تستجب شركة OpenAI فورًا لطلب التعليق.
وطلب المشرعون من شركة OpenAI الرد بسلسلة من الإجابات على أسئلة محددة حول ممارساتها المتعلقة بالسلامة والتزاماتها المالية بحلول 13 أغسطس.
كل هذا جزء من صيف من المخاوف الأمنية المتزايدة والجدالات المحيطة بـ OpenAI، والتي جنبًا إلى جنب مع جوجل, مايكروسوفت, ميتا والشركات الأخرى هي على رأس الذكاء الاصطناعي التوليدي سباق التسلح – سوق من المتوقع أن يشهد نموًا سريعًا أعلى 1 تريليون دولار في الإيرادات خلال عقد من الزمان – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء المدعومون بالذكاء الاصطناعي لتجنب ترك خلفك من قبل المنافسين.
مسبقا في هذا الشهر، مايكروسوفت تخلى عنها مقعد مراقب في مجلس إدارة OpenAIصرحت شركة أمازون في رسالة اطلعت عليها شبكة سي إن بي سي بأنها تستطيع الآن التنحي لأنها راضية عن تشكيل مجلس إدارة الشركة الناشئة، والذي تم تجديده خلال الأشهر الثمانية منذ الانتفاضة التي أدت إلى إقالة قصيرة الرئيس التنفيذي لشركة مايكروسوفت سام ألتمان وهدد الاستثمار الضخم الذي ضخته مايكروسوفت في OpenAI.
ولكن الشهر الماضينشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة وصف المخاوف بشأن الذكاء الاصطناعي التقدم السريع الذي أحرزته الصناعة على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.
وكتب الموظفون في ذلك الوقت: “إن شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المصممة خصيصًا للحوكمة الشركاتية كافية لتغيير هذا”.
بعد أيام من نشر الرسالة، أكد مصدر مطلع على الموضوع لشبكة CNBC أن لجنة التجارة الفيدرالية ووزارة العدل كانتا من المقرر أن تفتح تحقيقات مكافحة الاحتكار إلى OpenAI وMicrosoft و نفيديا، مع التركيز على سلوك الشركات.
رئيسة لجنة التجارة الفيدرالية لينا خان موصوف ووصفت وكالتها عملها بأنه “تحقيق في السوق في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي خدمات السحابة الرئيسيين”.
وفي رسالة شهر يونيو/حزيران، كتب الموظفون الحاليون والسابقون أن شركات الذكاء الاصطناعي لديها “معلومات غير عامة كبيرة” حول ما يمكن أن تفعله تكنولوجيتها، ومدى تدابير السلامة التي وضعتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة من الضرر.
“ونحن ندرك أيضا المخاطر الجسيمة التي تشكلها هذه التقنيات”، كما كتبوا، وأضافوا أن الشركات “لا تتحمل حاليا سوى التزامات ضعيفة فيما يتصل بمشاركة بعض هذه المعلومات مع الحكومات، ولا تتحمل أي التزامات مع المجتمع المدني. ونحن لا نعتقد أنه يمكن الاعتماد عليها جميعا لمشاركة هذه المعلومات طواعية”.
في شهر مايو، قررت شركة OpenAI أعلنت شركة جوجل عن تفكيك فريقها الذي يركز على المخاطر طويلة الأجل للذكاء الاصطناعي بعد عام واحد فقط من إعلانها عن المجموعة، وفقًا لما أكده شخص مطلع على الوضع لشبكة CNBC في ذلك الوقت.
وأضاف الشخص، الذي تحدث شريطة عدم الكشف عن هويته، أن بعض أعضاء الفريق يتم إعادة تعيينهم إلى فرق أخرى داخل الشركة.
تم حل الفريق بعد أن أعلن زعيماه، المؤسس المشارك لشركة OpenAI إيليا سوتسكيفر ويان لايكي، أعلنوا رحيلهم من الشركة الناشئة في مايو. كتب Leike في منشور على X أن “ثقافة السلامة والعمليات الخاصة بشركة OpenAI أصبحت في مرتبة ثانوية مقارنة بالمنتجات اللامعة”.
المدير التنفيذي وقال سام التمان في ذلك الوقت، كان حزينًا لرؤية ليك يغادر وأن الشركة لديها المزيد من العمل للقيام به. بعد فترة وجيزة، أعلن المؤسس المشارك لشركة OpenAI جريج بروكمان تم نشره بيان منسوب إلى بروكمان وألتمان على X، يؤكد أن الشركة “رفعت مستوى الوعي بالمخاطر والفرص المرتبطة بالذكاء الاصطناعي العام حتى يتمكن العالم من الاستعداد لها بشكل أفضل”.
“انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث”، قال ليك كتب على X “في ذلك الوقت. ومع ذلك، كنت أختلف مع قيادة OpenAI بشأن الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”
وكتب لايكي أنه يعتقد أن المزيد من النطاق الترددي للشركة ينبغي أن يركز على الأمن والمراقبة والاستعداد والسلامة والتأثير المجتمعي.
“إن هذه المشاكل من الصعب للغاية حلها، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”، كما كتب. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل [computing resources] “وكان من الصعب للغاية إنجاز هذا البحث الحاسم”.
وأضاف لايكي أن OpenAI يجب أن تصبح “شركة ذكاء اصطناعي عام تضع السلامة في المقام الأول”.
وكتب في ذلك الوقت: “إن بناء آلات أذكى من الإنسان هو مسعى خطير بطبيعته. تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدار السنوات الماضية، أصبحت ثقافة السلامة والعمليات في مرتبة ثانوية في مقابل المنتجات اللامعة”.
المعلومات أولا تم الإبلاغ عنه حول إعادة تعيين مادري.