الأمن السيبراني

رسالة قلمية لموظفي OpenAI تدعو إلى حماية المبلغين عن المخالفات


أصدرت مجموعة من موظفي OpenAI السابقين والحاليين، إلى جانب العاملين الحاليين والسابقين في Google Deepmind وAnthropic، يوم الثلاثاء رسالة تدعو إلى حماية المبلغين عن المخالفات، قائلين إن الخطاب المفتوح والعام ضروري لسلامة الذكاء الاصطناعي (AI).

الرسالةيقول الموقع، الذي وقعه أكثر من عشرة أشخاص (سواء بالاسم أو بدون الكشف عن هويتهم)، إن المخاطر الوجودية التي يشكلها الذكاء الاصطناعي تفوق رغبة الشركات في الحفاظ على الأسرار في سوق شديدة التنافسية.

تدعو الرسالة شركات الذكاء الاصطناعي إلى عدم فرض “اتفاقيات الاستخفاف” أو منع الانتقادات أو الانتقام من خلال الاستفادة من المنافع الاقتصادية المكتسبة؛ أن تقوم الشركة بتسهيل الإبلاغ عن المخاطر بشكل مجهول من قبل الموظفين الحاليين؛ أن الشركة تدعم ثقافة النقد المفتوح؛ وأن الشركة لن تنتقم من الموظفين الحاليين والسابقين الذين يثيرون المخاطر علنًا.

وجاء في الرسالة: “تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة، ونحن لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”. “تمتلك شركات الذكاء الاصطناعي معلومات كبيرة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها… ومع ذلك، ليس لديها حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليهم جميعًا لمشاركتها طوعًا”.

متعلق ب:سكارليت جوهانسون وOpenAI وSilencing ‘Sky’

تتورط OpenAI حاليًا في العديد من الدعاوى القضائية بشأن برنامج الدردشة ChatGPT الطاغوت الخاص بها والذي تم إصداره في نوفمبر 2022. وبدأت ChatGPT سباق تسلح توليدي للذكاء الاصطناعي (GenAI) مع شركات التكنولوجيا الكبرى مثل Google وMicrosoft وNvidia وAmazon وغيرهم ممن يتنافسون على المركز بينما تتنافس الشركات والمستهلكون على اعتماد تقنيات الذكاء الاصطناعي الجديدة. من المتوقع أن يصل سوق GenAI إلى 1.3 تريليون دولار خلال عقد من الزمن، وفقًا لـ بلومبرج.

في الخيط على X، قام جاكوب هيلتون، الموظف السابق في OpenAI وموقع الرسالة، بتفصيل المخاوف، قائلًا إن المجموعة “تدعو جميع شركات الذكاء الاصطناعي الحدودية إلى تقديم ضمانات بأن الموظفين لن يتم الانتقام منهم بسبب الكشف بشكل مسؤول عن المخاوف المتعلقة بالمخاطر … تاريخيًا في OpenAI، كانت اتفاقيات تسجيل الدخول مهددة الموظفين مع فقدان حقوقهم المكتسبة إذا تم فصلهم من العمل “لسبب”، والذي يتضمن انتهاك السرية. إذا أدرك الموظف أن الشركة قد أخلت بأحد التزاماتها، فلن يكون لديه من يلجأ إليه سوى الشركة نفسها.

في الشهر الماضي، تم الاطلاع على مذكرة داخلية بواسطة سي ان بي سي، أظهر أن OpenAI قد أنهت ممارستها المتمثلة في إجبار الموظفين على اختيار التوقيع على اتفاقية عدم الاستخفاف أو خسارة الأسهم المكتسبة في الشركة.

متعلق ب:يصل مسبار FTC GenAI إلى Google وAmazon وOpenAI وMicrosoft وAnthropic

أشادت هيلتون بتراجع OpenAI عن اتفاقية عدم الاستخفاف، لكنها قالت إنه ينبغي بذل المزيد من الجهود لحماية المبلغين عن المخالفات. وكتبت هيلتون: “ربما لا يزال الموظفون يخشون أشكالًا أخرى من الانتقام بسبب الإفصاح، مثل الطرد من العمل ومقاضاة للحصول على تعويضات”.

وقد تمت الموافقة على الرسالة أيضًا من قبل كبار الشخصيات في مجال التكنولوجيا، بما في ذلك جيفري هينتون، ويوشوا بينجيو، وستيوارت راسل.

وتقول الرسالة إن التكنولوجيا تشكل مخاطر جسيمة. وجاء في الرسالة: “تتراوح هذه المخاطر من زيادة ترسيخ عدم المساواة الحالية إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان”.

وفي بيان لـ InformationWeek، قال متحدث باسم OpenAI: “نحن متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا وسنواصل التعامل مع حكومات المجتمع المدني والمجتمعات الأخرى حول العالم.”

وقالت OpenAI أيضًا إنها أزالت بند عدم الاستخفاف من أوراقها للموظفين المغادرين. وتقول الشركة إنها تتمتع بسجل جيد في عدم إطلاق التكنولوجيا دون ضمانات، مستشهدة بنماذج الفيديو Voice Engine وSora التي تم تأجيلها من الإصدار على نطاق واسع.

وفي مقابلة عبر البريد الإلكتروني مع InformationWeek، قال إريك نويز، الأستاذ المشارك في ريادة الأعمال ومؤسس مختبر الذكاء الاصطناعي بالمدرسة، إن الرسالة هي خطوة في الاتجاه الصحيح لتحقيق شفافية مسؤولة في مجال الذكاء الاصطناعي. “نظرًا للأهمية الفريدة للذكاء الاصطناعي لمستقبل الابتكار البشري – والمخاطر الحقيقية التي يمكن أن يشكلها الذكاء الاصطناعي – فإن هذه الدعوة منطقية للغاية.”

متعلق ب:عيد الشكر المختل في OpenAI: 5 لاعبين رئيسيين في الدراما الانقلابية

ويضيف: “مرة أخرى نرى أنه من المهم أن تحتاج أقوى شركات التكنولوجيا في العالم إلى رقابة عملية وتكتيكية لأن حوافزها يمكن أن تختلف عن حوافز المجتمع ككل”.





Source link

زر الذهاب إلى الأعلى