تحذر رسالة OpenAI المفتوحة من “المخاطر الجسيمة” للذكاء الاصطناعي ونقص الرقابة
الرئيس التنفيذي لشركة OpenAI سام ألتمان يتحدث خلال مؤتمر Microsoft Build في مقر Microsoft في ريدموند، واشنطن، في 21 مايو 2024.
جيسون ريدموند | فرانس برس | صور جيتي
نشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة يوم الثلاثاء تصف المخاوف بشأن الذكاء الاصطناعي التقدم السريع الذي تشهده الصناعة على الرغم من الافتقار إلى الرقابة وغياب حماية المبلغين عن المخالفات لأولئك الذين يرغبون في التحدث.
“تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”، كما قال الموظفون. كتب في الرسالة المفتوحة.
أوبن آي, جوجل, مايكروسوفت, ميتا وشركات أخرى على رأس أ الذكاء الاصطناعي التوليدي سباق التسلح – السوق الذي من المتوقع أن أعلى 1 تريليون دولار في الإيرادات في غضون عقد من الزمن – حيث تسارع الشركات في كل صناعة على ما يبدو إلى إضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب ذلك يتم تركها وراءها من قبل المنافسين.
كتب الموظفون الحاليون والسابقون أن شركات الذكاء الاصطناعي لديها “معلومات جوهرية غير عامة” حول ما يمكن أن تفعله التكنولوجيا الخاصة بها، ومدى تدابير السلامة التي وضعتها ومستويات المخاطر التي تنطوي عليها التكنولوجيا لأنواع مختلفة من الضرر.
وكتبوا: “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات”، مضيفين أن الشركات “ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليها جميعًا”. لمشاركتها طوعا.”
توضح الرسالة أيضًا مخاوف الموظفين الحاليين والسابقين بشأن عدم كفاية الحماية للمبلغين عن المخالفات في صناعة الذكاء الاصطناعي، مشيرة إلى أنه بدون إشراف حكومي فعال، يكون الموظفون في وضع فريد نسبيًا لمحاسبة الشركات.
وكتب الموقعون: “إن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”. “إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد.”
تطلب الرسالة من شركات الذكاء الاصطناعي الالتزام بعدم الدخول في اتفاقيات عدم الاستخفاف أو إنفاذها؛ لإنشاء عمليات مجهولة المصدر للموظفين الحاليين والسابقين للتعبير عن مخاوفهم لمجلس إدارة الشركة والمنظمين وغيرهم؛ ودعم ثقافة النقد المفتوح؛ وعدم الانتقام من الإبلاغ عن المخالفات العامة في حالة فشل عمليات إعداد التقارير الداخلية.
قام أربعة موظفين مجهولين في OpenAI وسبعة موظفين سابقين، بما في ذلك دانيال كوكوتاجلو، وجاكوب هيلتون، وويليام سوندرز، وكارول وينرايت، ودانيال زيغلر، بالتوقيع على الرسالة. ومن بين الموقعين أيضًا رامانا كومار، الذي عمل سابقًا في Google DeepMind، ونيل ناندا، الذي يعمل حاليًا في Google DeepMind وعمل سابقًا في Anthropic. كما أيد الرسالة ثلاثة من علماء الكمبيوتر المشهورين المعروفين بتطوير مجال الذكاء الاصطناعي: جيفري هينتون، ويوشوا بنجيو، وستيوارت راسل.
وقال متحدث باسم OpenAI لـ CNBC: “نحن متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”، مضيفًا أن الشركة لديها خط ساخن مجهول للنزاهة. بالإضافة إلى لجنة السلامة والأمن بقيادة أعضاء مجلس الإدارة وقادة OpenAI.
ورفضت مايكروسوفت التعليق.
تصاعد الجدل حول OpenAI
الشهر الماضي، تراجعت OpenAI بشأن قرار مثير للجدل لجعل الموظفين السابقين يختارون بين التوقيع على اتفاقية عدم الاستخفاف التي لن تنتهي أبدًا، أو الاحتفاظ بأسهمهم المكتسبة في الشركة. تم إرسال المذكرة الداخلية، التي اطلعت عليها CNBC، إلى الموظفين السابقين ومشاركتها مع الموظفين الحاليين.
ذكرت المذكرة، الموجهة إلى كل موظف سابق، أنه في وقت مغادرة الشخص من OpenAI، “ربما تم إبلاغك بأنه مطلوب منك تنفيذ اتفاقية إطلاق عامة تتضمن بند عدم الاستخفاف من أجل الاحتفاظ بالحقوق المكتسبة الوحدات [of equity]”.
وقال متحدث باسم OpenAI لـ CNBC في ذلك الوقت: “نحن نأسف بشدة لأننا نغير هذه اللغة الآن فقط؛ فهي لا تعكس قيمنا أو الشركة التي نريد أن نكون عليها”.
وتلي ذلك أيضًا رسالة مفتوحة يوم الثلاثاء قرار OpenAI الشهر الماضي لحل فريقها الذي ركز على المخاطر طويلة المدى للذكاء الاصطناعي بعد عام واحد فقط من حدوثه مايكروسوفتأعلنت الشركة الناشئة المدعومة عن المجموعة، وهو ما أكده شخص مطلع على الوضع لـ CNBC في ذلك الوقت.
وقال الشخص، الذي تحدث شريطة عدم الكشف عن هويته، إنه سيتم إعادة تعيين بعض أعضاء الفريق في عدة فرق أخرى داخل الشركة.
تم حل الفريق بعد قادة الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، اعلان مغادرتهم من بدء التشغيل الشهر الماضي. كتب Leike في منشور على X أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.
إيليا سوتسكيفر، عالم الكمبيوتر الروسي الإسرائيلي الكندي والمؤسس المشارك وكبير العلماء في OpenAI، يتحدث في جامعة تل أبيب في تل أبيب، 5 يونيو، 2023.
جاك جويز | فرانس برس | صور جيتي
الرئيس التنفيذي سام التمان قال في X، كان حزينًا لرؤية Leike يغادر وأن الشركة لديها المزيد من العمل للقيام به. وبعد فترة وجيزة، المؤسس المشارك لـ OpenAI جريج بروكمان نشر بيان منسوب إليه وإلى Altman على X، يؤكد أن الشركة “قامت برفع مستوى الوعي بمخاطر وفرص الذكاء الاصطناعي العام حتى يتمكن العالم من الاستعداد له بشكل أفضل”.
“لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث،” ليك كتب على X. “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”
كتب Leike أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والاستعداد والسلامة والتأثير المجتمعي.
وكتب: “من الصعب جدًا حل هذه المشكلات، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”. “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل ذلك [computing resources] وأصبح من الصعب أكثر فأكثر إجراء هذا البحث المهم.”
وأضاف ليك أن OpenAI يجب أن تصبح “شركة AGI للسلامة أولاً”.
وكتب: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة عن المنتجات اللامعة.”
تأتي عمليات المغادرة رفيعة المستوى بعد أشهر من مرور OpenAI بفترة عصيبة أزمة القيادة تنطوي على ألتمان.
وفي نوفمبر/تشرين الثاني، أقال مجلس إدارة OpenAI ألتمان، قائلًا في بيان له إن ألتمان لم يكن “صريحًا باستمرار في اتصالاته مع مجلس الإدارة”.
يبدو أن القضية تزداد تعقيدًا يومًا بعد يوم صحيفة وول ستريت جورنال وغيرها من وسائل الإعلام التي ذكرت أن سوتسكيفر ركز تركيزه على ضمان أن الذكاء الاصطناعي لن يضر البشر، في حين كان آخرون، بما في ذلك ألتمان، أكثر حرصا على المضي قدما في تقديم التكنولوجيا الجديدة.
أدت الإطاحة بألتمان إلى استقالات أو تهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي OpenAI تقريبًا، وضجة من المستثمرين، بما في ذلك مايكروسوفت. وفي غضون أسبوع، عاد ألتمان إلى الشركة، وخرج أعضاء مجلس الإدارة هيلين تونر، وتاشا ماكولي، وإيليا سوتسكيفر، الذين صوتوا لإقالة ألتمان. ظل Sutskever ضمن طاقم العمل في ذلك الوقت ولكنه لم يعد بصفته عضوًا في مجلس الإدارة. ظل آدم دانجيلو، الذي صوت أيضًا لصالح الإطاحة بألتمان، عضوًا في مجلس الإدارة.
الممثلة سكارليت جوهانسون في مهرجان كان السينمائي، كان، فرنسا، 24 مايو 2023.
محفظة موندادوري | محفظة موندادوري | صور جيتي
وفي الوقت نفسه، في الشهر الماضي، أطلقت OpenAI نموذج الذكاء الاصطناعي الجديد وإصدار سطح المكتب من ChatGPT، إلى جانب واجهة مستخدم محدثة وقدرات صوتية، وهي أحدث جهود الشركة لتوسيع استخدام chatbot الشهير. بعد أسبوع واحد OpenAI ظهرت لأول مرة مجموعة من الأصوات الصوتية، أعلنت الشركة سوف يسحب أحد أصوات chatbot الفيروسية المسمى “Sky”.
أثارت “سكاي” جدلا بسبب تشابهها بصوت الممثلة سكارليت جوهانسون في فيلم “Her” الذي يدور حول الذكاء الاصطناعي. وقد زعم نجم هوليوود ذلك قام OpenAI بنزع صوتها على الرغم من أنها رفضت السماح لهم باستخدامه.