أخبار التقنية

تقوم شركة OpenAI بحل فريق سلامة آخر، واستقالة المستشار الرئيسي


تقوم OpenAI بحل فريق “AGI Readiness” الخاص بها، والذي قدم المشورة للشركة بشأن قدرة OpenAI الخاصة على التعامل مع الذكاء الاصطناعي القوي بشكل متزايد واستعداد العالم لإدارة تلك التكنولوجيا، وفقًا لرئيس الفريق.

أعلن مايلز بروندج، كبير مستشاري شركة AGI Readiness، يوم الأربعاء، عن رحيله عن الشركة عبر رسالة بريدية مشاركة المكدس الفرعي. لقد كتب أن أسبابه الرئيسية كانت أن تكلفة الفرصة البديلة أصبحت مرتفعة جدًا، واعتقد أن بحثه سيكون أكثر تأثيرًا على المستوى الخارجي، وأنه أراد أن يكون أقل تحيزًا، وأنه أنجز ما كان ينوي تحقيقه في OpenAI.

كتب بروندج أيضًا أنه فيما يتعلق بكيفية عمل OpenAI والعالم فيما يتعلق بجاهزية الذكاء الاصطناعي العام، “لا يوجد OpenAI ولا أي مختبر حدودي آخر جاهز، والعالم ليس جاهزًا أيضًا.” يخطط بروندج لبدء مؤسسته غير الربحية، أو الانضمام إلى منظمة حالية، للتركيز على أبحاث سياسات الذكاء الاصطناعي والدعوة لها. وأضاف أنه “من غير المرجح أن يكون الذكاء الاصطناعي آمنًا ومفيدًا قدر الإمكان دون بذل جهود متضافرة لتحقيق ذلك”.

سيتم إعادة تعيين أعضاء فريق جاهزية AGI السابقين إلى فرق أخرى، وفقًا للمنشور.

وقال متحدث باسم OpenAI لـ CNBC: “نحن نؤيد تمامًا قرار مايلز بمتابعة أبحاثه السياسية خارج الصناعة ونشعر بالامتنان العميق لمساهماته”. “إن خطته لإجراء بحث مستقل حول سياسة الذكاء الاصطناعي تمنحه الفرصة لإحداث تأثير على نطاق أوسع، ونحن متحمسون للتعلم من عمله ومتابعة تأثيره. ونحن واثقون من أنه في دوره الجديد سيستمر مايلز في رفع مستوى جودة صنع السياسات في الصناعة والحكومة.”

وفي شهر مايو، قررت شركة OpenAI القيام بذلك حل فريق Superalignment الخاص به، والتي ركزت على المخاطر طويلة المدى للذكاء الاصطناعي، بعد عام واحد فقط من إعلانها عن المجموعة، أكد شخص مطلع على الوضع لـ CNBC في ذلك الوقت.

تأتي أخبار حل فريق AGI Readiness في أعقاب الخطط المحتملة لمجلس إدارة OpenAI لإعادة هيكلة الشركة لتصبح شركة ربحية، وبعد أن أعلن ثلاثة مديرين تنفيذيين – CTO Mira Murati، ورئيس الأبحاث Bob McGrew، ونائب رئيس الأبحاث Barret Zoph – عن رحيلهم في نفس اليوم من الشهر الماضي.

وفي وقت سابق من شهر أكتوبر، أنهت OpenAI جولة التمويل الصاخبة بتقييم قدره 157 مليار دولار، بما في ذلك 6.6 مليار دولار جمعتها الشركة من قائمة واسعة من شركات الاستثمار وشركات التكنولوجيا الكبرى. كما حصلت أ 4 مليار دولار خط ائتمان متجدد، ليصل إجمالي سيولته إلى أكثر من 10 مليارات دولار. وتتوقع الشركة حوالي 5 مليارات دولار وأكدت CNBC مع مصدر مطلع الشهر الماضي خسائر بقيمة 3.7 مليار دولار من الإيرادات هذا العام.

وفي سبتمبر، أعلن OpenAI أن لجنة السلامة والأمن، التي أنشأتها الشركة في شهر مايو أثناء تعاملها مع الجدل الدائر حول العمليات الأمنية، ستصبح لجنة إشراف مستقلة تابعة لمجلس الإدارة. وقد أنهت مؤخرًا مراجعتها التي استمرت 90 يومًا لتقييم عمليات OpenAI والضمانات ثم قدمت توصيات إلى مجلس الإدارة، مع نشر النتائج أيضًا في منشور عام. مشاركة مدونة.

تأتي أخبار مغادرة المسؤولين التنفيذيين وتغييرات مجلس الإدارة أيضًا في أعقاب صيف مليء بالمخاوف والخلافات المتزايدة المتعلقة بالسلامة المحيطة بـ OpenAI، والتي جنبًا إلى جنب مع جوجل, مايكروسوفت, ميتا وشركات أخرى على رأس أ الذكاء الاصطناعي التوليدي سباق التسلح — السوق الذي من المتوقع أن أعلى 1 تريليون دولار في الإيرادات في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب ذلك يتم تركها وراءها من قبل المنافسين.

في يوليو، OpenAI أعيد تعيين ألكسندر مادري، أحد كبار المسؤولين التنفيذيين في مجال السلامة في OpenAI، إلى وظيفة تركز على تفكير الذكاء الاصطناعي بدلاً من ذلك، حسبما أكدت مصادر مطلعة على الوضع لـ CNBC في ذلك الوقت.

كان مادري رئيس قسم الاستعداد في OpenAI، وهو فريق “مكلف بتتبع وتقييم والتنبؤ والمساعدة في الحماية من المخاطر الكارثية المتعلقة بنماذج الذكاء الاصطناعي الحدودية”، وفقًا للسيرة الذاتية لمادري على موقع مبادرة الذكاء الاصطناعي بجامعة برينستون. وسيظل مادري يعمل على أعمال سلامة الذكاء الاصطناعي الأساسية في دوره الجديد، حسبما صرح OpenAI لـ CNBC في ذلك الوقت.

جاء قرار إعادة تعيين مادري في نفس الوقت تقريبًا الذي أرسل فيه أعضاء مجلس الشيوخ الديمقراطيون رسالة إلى الرئيس التنفيذي لشركة OpenAI سام ألتمان بخصوص “أسئلة حول كيفية معالجة OpenAI لمخاوف السلامة الناشئة”.

وجاء في الرسالة، التي اطلعت عليها CNBC، أيضًا: “نطلب معلومات إضافية من OpenAI حول الخطوات التي تتخذها الشركة للوفاء بالتزاماتها العامة بشأن السلامة، وكيف تقوم الشركة بتقييم تقدمها داخليًا بشأن تلك الالتزامات، وبشأن تحديد الشركة وتخفيف تهديدات الأمن السيبراني.”

مايكروسوفت تخلى عنها مقعد مراقب في مجلس إدارة OpenAI في يوليو، ذكرت في رسالة اطلعت عليها CNBC أنه يمكنها الآن التنحي لأنها راضية عن تشكيل مجلس إدارة الشركة الناشئة، والذي تم تجديده منذ الانتفاضة التي أدت إلى طرد قصير ألتمان وهدد استثمار مايكروسوفت الضخم في الشركة.

ولكن في يونيو، قامت مجموعة من موظفي OpenAI الحاليين والسابقين بنشر تقرير رسالة مفتوحة واصفا المخاوف بشأن الذكاء الاصطناعي التقدم السريع الذي تشهده الصناعة على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.

وكتب الموظفون في ذلك الوقت: “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ولا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”.

بعد أيام من نشر الرسالة، أكد مصدر مطلع لـ CNBC أن لجنة التجارة الفيدرالية ووزارة العدل من المقرر فتح تحقيقات مكافحة الاحتكار في OpenAI وMicrosoft و نفيديا، مع التركيز على سلوك الشركات.

رئيسة لجنة التجارة الفيدرالية لينا خان الموصوفة عمل وكالتها هو “تحقيق سوقي في الاستثمارات والشراكات التي يتم تشكيلها بين مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية الرئيسيين”.

كتب الموظفون الحاليون والسابقون في رسالة يونيو أن شركات الذكاء الاصطناعي لديها “معلومات جوهرية غير عامة” حول ما يمكن أن تفعله التكنولوجيا الخاصة بها، ومدى تدابير السلامة التي اتخذتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة. من الأذى.

وكتبوا: “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليها جميعًا”. لمشاركتها طوعا.”

فريق OpenAI Superalignment، أعلن العام الماضي وتم حلها في مايو، ركزت على “الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. في ذلك الوقت، قالت شركة OpenAI إنها ستخصص 20% من قدرتها الحاسوبية للمبادرة على مدى أربع سنوات.

تم حل الفريق بعد أن قام قادته، المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر وجان ليك، وأعلنوا رحيلهم منذ بدء التشغيل في شهر مايو. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.

قال التمان في ذلك الوقت على X، كان حزينًا لرؤية Leike يغادر وأن OpenAI كان لديه المزيد من العمل للقيام به. وبعد ذلك بوقت قصير، المؤسس المشارك جريج بروكمان نشر بيان منسوب إلى Brockman والرئيس التنفيذي لشركة X، يؤكد أن الشركة “رفعت الوعي بمخاطر وفرص AGI حتى يتمكن العالم من الاستعداد لها بشكل أفضل.”

“لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث،” ليك كتب على X في ذلك الوقت. “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”

كتب Leike أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.

وكتب في ذلك الوقت: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل ذلك [computing resources] وأصبح من الصعب أكثر فأكثر إجراء هذا البحث المهم.”

وأضاف ليك أن OpenAI يجب أن تصبح “شركة AGI للسلامة أولاً”.

وكتب على X: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها إلى المرتبة الثانية. منتجات.”



Source link

زر الذهاب إلى الأعلى