أخبار التقنية

لا يمكن الوثوق بشركات الذكاء الاصطناعي لمشاركة معلومات المخاطر طوعًا


لا يمكن الاعتماد على شركات الذكاء الاصطناعي لتبادل المعلومات طوعًا حول قدرات النظام والمخاطر، كما يقول الموظفون الحاليون والسابقون في دعوة مفتوحة لمزيد من الحماية للمبلغين عن المخالفات.

خلال القمة العالمية الثانية للذكاء الاصطناعي في سيول، وقعت 16 شركة على الاتفاقية التزامات السلامة الخاصة بشركة Frontier AI، وهي عبارة عن مجموعة طوعية من التدابير لكيفية تطوير التكنولوجيا بأمان من خلال، على سبيل المثال، تقييم المخاطر التي تشكلها نماذجهم عبر كل مرحلة من دورة حياة الذكاء الاصطناعي بأكملها، ووضع عتبات مخاطر غير مقبولة للتعامل مع التهديدات الأكثر خطورة، و توفير الشفافية العامة في عملية تقييم المخاطر برمتها.

وبموجب أحد الالتزامات الطوعية الرئيسية، قالت الشركات إنها لن تقوم أيضًا بتطوير أو نشر أنظمة الذكاء الاصطناعي إذا لم يكن من الممكن تخفيف المخاطر بشكل كافٍ.

ومع ذلك، بعد أقل من أسبوعين من القمة، قالت مجموعة من العاملين الحاليين والسابقين من OpenAI وAnthropic وDeepMind – اللتين وقعتا أول شركتين على التزامات السلامة في سيول – إن الترتيبات الطوعية الحالية لن تكون كافية لضمان الرقابة الفعالة. من الشركات النامية للذكاء الاصطناعي.

وأضافوا أنه في حين أن الشركات نفسها، إلى جانب الحكومات وخبراء الذكاء الاصطناعي الآخرين، قد اعترفت بالمخاطر الواضحة التي تشكلها التكنولوجيا – والتي “تتراوح من زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على الذكاء الاصطناعي المستقل”. الأنظمة التي من المحتمل أن تؤدي إلى انقراض الإنسان” – لدى الشركات “حوافز مالية قوية” لتجنب الرقابة الفعالة.

وكتبوا في رسالة مفتوحة بتاريخ 4 يونيو 2024: “لا نعتقد أن الهياكل المخصصة لحوكمة الشركات كافية لتغيير هذا”.

“تمتلك شركات الذكاء الاصطناعي معلومات كبيرة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها، ومدى كفاية تدابير الحماية الخاصة بها، ومستويات المخاطر الناجمة عن أنواع مختلفة من الضرر. ومع ذلك، ليس لديهم حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليهم جميعًا لتقاسمها طوعًا”.

اتفاقات السرية

وأضافت الرسالة – الموقعة من قبل موظفين مجهولين وأسماء – أن “اتفاقيات السرية الواسعة” تمنعهم من التعبير عن مخاوفهم، “باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”.

وأضافوا أن “الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد”. “البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة. لسنا أول من واجه هذه القضايا أو تحدث عنها”.

وتنتهي الرسالة بدعوات لمزيد من الشفافية والمساءلة من جانب الشركات، بما في ذلك عدم الدخول في أو تنفيذ أي اتفاق يحظر انتقاد المخاوف المتعلقة بالمخاطر؛ تسهيل عملية مجهولة للموظفين للتعبير عن مخاوفهم؛ ودعم الثقافات الداخلية للنقد المفتوح الذي يسمح للموظفين الحاليين والسابقين بإثارة المخاوف مع مجموعة واسعة من المجموعات.

كما يدعو الشركات إلى عدم الانتقام من الموظفين الحاليين والسابقين الذين يشاركون علنًا المعلومات السرية المتعلقة بالمخاطر بعد فشل العمليات الأخرى: “نحن نقبل أن أي جهد للإبلاغ عن المخاوف المتعلقة بالمخاطر يجب أن يتجنب الكشف عن المعلومات السرية دون داع. ولذلك، بمجرد وجود عملية كافية لرفع المخاوف إلى مجلس إدارة الشركة، وإلى الجهات التنظيمية، وإلى منظمة مستقلة مناسبة تتمتع بالخبرة ذات الصلة، فإننا نقبل أنه ينبغي إثارة المخاوف من خلال مثل هذه العملية في البداية.

“ومع ذلك، طالما أن مثل هذه العملية غير موجودة، يجب أن يحتفظ الموظفون الحاليون والسابقون بحريتهم في الإبلاغ عن مخاوفهم للجمهور”.

كما تم التوقيع على الرسالة من قبل خبراء بارزين في مجال الذكاء الاصطناعي، ستيوارت راسل، وجيفري هينتون، ويوشوا بينجيو؛ تم اختيار الأخير من قبل 27 دولة خلال أول قمة عالمية للذكاء الاصطناعي لقيادة أول ذكاء اصطناعي حدودي على الإطلاق حالة العلم تقرير يقيم الأبحاث الحالية حول مخاطر التكنولوجيا وقدراتها.

التعليق وفيما يتعلق بالتزامات السلامة التي تعهدت بها شركات الذكاء الاصطناعي الـ 16 في ذلك الوقت، قال بينجيو إنه على الرغم من سعادته لرؤية العديد من شركات الذكاء الاصطناعي الرائدة تشترك – ويرحب بشكل خاص بالتزاماتها بوقف النماذج التي تشكل مخاطر شديدة – إلا أنها ستحتاج إلى أن تكون كذلك. مدعومة بتدابير تنظيمية أكثر رسمية في المستقبل. وقال: “من الواضح أن هذا الالتزام الطوعي يجب أن يكون مصحوبًا بتدابير تنظيمية أخرى، لكنه مع ذلك يمثل خطوة مهمة إلى الأمام في إنشاء نظام حوكمة دولي لتعزيز سلامة الذكاء الاصطناعي”.

اتصلت مجلة Computer Weekly بقسم العلوم والابتكار والتكنولوجيا بشأن تعليقات Bengio بشأن الحاجة إلى تدابير إلزامية، لكنها لم تتلق أي رد مسجل.

بينما قامت حكومة المملكة المتحدة بذلك قالت مرارًا وتكرارًا إنها لن تصدر تشريعًا بشأن الذكاء الاصطناعي خوفاً من خنق الابتكار، فإنه أوجزت “تفكيرها الأولي” بشأن إدخال المتطلبات الملزمة لشركات مختارة تعمل على تطوير أقوى أنظمة الذكاء الاصطناعي في فبراير 2024، مع الإشارة إلى أن أي إجراءات طوعية لشركات الذكاء الاصطناعي من المرجح أن تكون “غير متناسبة مع المخاطر” التي تمثلها القدرات الأكثر تقدمًا.

ردًا على الرسالة، قال متحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة وأمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر. نحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا، وسوف نستمر في التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.

“ولهذا السبب أيضًا لدينا سبل للموظفين للتعبير عن مخاوفهم بما في ذلك الخط الساخن المجهول للنزاهة ولجنة السلامة والأمن بقيادة أعضاء مجلس الإدارة وقادة السلامة من الشركة.”

وأضاف المتحدث أن إنشاء أنظمة آمنة وموثوقة أمر بالغ الأهمية لنموذج أعمال OpenAI، وأن 92% من Fortune 500 يستخدمون أدواته – وهو أمر يقولون إنه لن يحدث إذا لم تكن النماذج آمنة أو قادرة.

وأضافوا أيضًا أن OpenAI كانت من بين أوائل الشركات في الصناعة التي دعت إلى التنظيم الحكومي للذكاء الاصطناعي، وأن الموظفين الحاليين والسابقين لديهم العديد من السبل لمشاركة وجهات نظرهم.

وقالوا إن ذلك يشمل القدرة على طرح أفكارهم خلال ساعات عمل مكتب القيادة، والخط الساخن المجهول للنزاهة، وجلسات الأسئلة والأجوبة مع مجلس الإدارة والاتصالات المستمرة مع مديريهم.

ومع ذلك، قالوا أيضًا إنه من المهم حماية سرية التكنولوجيا التي يتم بناؤها، بما في ذلك من عمليات الكشف غير المصرح بها التي يمكن أن تعود بفوائد على الجهات الفاعلة الخبيثة. واستشهدوا على وجه التحديد بالدول التي تسعى إلى تجاوز التفوق الأمريكي في تكنولوجيا الذكاء الاصطناعي.

اتصلت Computer Weekly أيضًا بـ DeepMind و Anthropic لكنها لم تتلق أي رد.



Source link

زر الذهاب إلى الأعلى