نشر أول تقرير سلامة الذكاء الاصطناعي

الأول تقرير سلامة الذكاء الاصطناعى الدولي سيتم استخدامه لإبلاغ المناقشات الدبلوماسية القادمة حول كيفية التخفيف من مجموعة متنوعة من الأخطار المرتبطة بالذكاء الاصطناعي (AI) ، لكنها تسلط الضوء على وجود درجة عالية من عدم اليقين حول الطبيعة الدقيقة للعديد من التهديدات .
بتكليف بعد الافتتاح قمة سلامة الذكاء الاصطناعى التي استضافتها حكومة المملكة المتحدة في بارك بارك في نوفمبر 2023 – برئاسة AI الأكاديمية Yoshua Bengio – تقرير يغطي مجموعة واسعة من التهديدات التي تشكلها التكنولوجيا ، بما في ذلك تأثيرها على الوظائف والبيئة ، وقدرتها على تكاثر الهجمات السيبرانية والأفعال العميقة ، وكيف يمكن أن تضخيم التحيزات الاجتماعية.
كما أنه يبحث في المخاطر المرتبطة بتركيزات السوق على الذكاء الاصطناعى و “AI R&D” المتزايدة [Research and Development] تقسيم “، ولكن يقتصر على النظر في كل هذه المخاطر في سياق الأنظمة التي يمكن أن تؤدي مجموعة واسعة من المهام ، والمعروفة باسم AI للأغراض العامة.
لكل من المخاطر العديدة التي تم تقييمها ، امتنع التقرير عن استخلاص استنتاجات نهائية ، مع تسليط الضوء على درجة عالية من عدم اليقين حول كيفية تطور تقنية الحركة السريعة. ودعا لمزيد من المراقبة وجمع الأدلة في كل منطقة.
وقالت: “تشير الأدلة الحالية إلى تحديين مركزيين في إدارة المخاطر من الذكاء الاصطناعي للأغراض العامة”. أولاً ، من الصعب تحديد أولويات المخاطر بسبب عدم اليقين بشأن شدتها واحتمال حدوثها. ثانياً ، قد يكون من المعقد تحديد الأدوار والمسؤوليات المناسبة عبر سلسلة قيمة الذكاء الاصطناعي ، وتحفيز الإجراء الفعال. “
ومع ذلك ، فإن التقرير واضح في استنتاجه أن جميع الآثار المستقبلية المحتملة للمنظمة العظيمة التي تحددها هي مسألة سياسية في المقام الأول ، والتي ستحددها خيارات المجتمعات والحكومات اليوم.
“كيف يتم تطوير الذكاء الاصطناعى للأغراض العامة ، ومن الذي تم تصميمه ، ما الذي تم تصميمه لحله ، سواء كنا سنكون قادرين على جني إمكاناتها الاقتصادية الكاملة ، من يستفيد منها ، وأنواع المخاطر التي نعرضها على أنفسنا-الإجابات على تعتمد هذه الأسئلة والعديد من الأسئلة الأخرى على الخيارات التي تقوم بها المجتمعات والحكومات اليوم وفي المستقبل لتشكيل تطوير الذكاء الاصطناعي للأغراض العامة “، مضيفًا أن هناك حاجة ملحة للتعاون الدولي والاتفاق على هذه القضايا.
“ستكون المناقشة العلمية والعامة البناءة ضرورية للمجتمعات وصانعي السياسات لاتخاذ الخيارات الصحيحة.”
نتائج التقرير – التي تعتمد على تقرير سلامة AI مؤقت تم إصداره في مايو 2024 الذي أظهر عدم وجود اتفاق خبير على أكبر المخاطر – يهدف إلى إبلاغ النقاش في قمة AI Action القادمة في فرنسا ، المقرر في أوائل فبراير 2025 ، والتي تتبع من القممتين السابقتين في Bletchley و Pletchley و سيول ، كوريا الجنوبية.
“الذكاء الاصطناعي هو موضوع رئيسي في عصرنا ، وسلامته هي أساس حاسم لبناء الثقة وتعزيز التبني. وقالت كلارا تشاباز ، الوزير الفرنسي ، مندوب الذكاء الاصطناعي والتقنيات الرقمية:
“يوفر هذا التقييم العلمي الشامل الأول قاعدة الأدلة اللازمة للمجتمعات والحكومات لتشكيل الاتجاه المستقبلي لـ AI. ستبلغ هذه الأفكار مناقشات حاسمة في قمة AI Action القادمة في باريس. “
مخاطر النظامية
عند فحص المخاطر المجتمعية الأوسع لنشر الذكاء الاصطناعي – إلى جانب قدرات أي نموذج فردي – قال التقرير إن التأثير على أسواق العمل على وجه الخصوص “من المحتمل أن يكون عميقًا”.
ولاحظ أنه على الرغم من وجود حالة من عدم اليقين الكبير في كيفية تأثير الذكاء الاصطناعى على أسواق العمل بالضبط ، فإن مكاسب الإنتاجية التي تحققت بالتكنولوجيا “من المحتمل أن تؤدي إلى آثار مختلطة على الأجور عبر قطاعات مختلفة ، وزيادة الأجور لبعض العمال مع تقليل الأجور للآخرين” ، “، مع وجود التأثير الأهم على المدى القريب على الوظائف التي تتكون بشكل أساسي من المهام المعرفية.
وقالت إن إمكانات الذكاء الاصطناعي المحسّنة للأغراض العامة من المحتمل أن تزيد من المخاطر الحالية على استقلالية العمال والرفاهية ، يمكن أن يكون لتسليط الضوء على التأثيرات الضارة “المراقبة المستمرة وقرارات عبء العمل التي تحركها الذكاء الاصطناعي” ، ، خاصة بالنسبة للعمال اللوجستية.
تمشيا مع يناير 2024 تقييم آثار الذكاء الاصطناعى على عدم المساواة من قبل الصندوق النقدي الدولي (صندوق النقد الدولي)-الذي وجد أن الذكاء الاصطناعى من المرجح أن يزيد من عدم المساواة دون تدخل سياسي-قال التقرير: “من المحتمل أن تؤدي أتمتة العمل التي تحركها الذكاء الاصطناعي إلى تفاقم عدم المساواة عن طريق تقليل حصة جميع الدخل الذي يذهب إلى العمال بالنسبة لمالكي رأس المال”.
يمكن تعميق عدم المساواة نتيجة لما يصفه التقرير “انقسام AI R&D” ، حيث يتركز تطوير التكنولوجيا بشكل كبير في أيدي البلدان الكبيرة الواقعة في البلدان ذات البنية التحتية الرقمية القوية.
“على سبيل المثال ، في عام 2023 ، تم تطوير غالبية نماذج الذكاء الاصطناعي للأغراض العامة (56 ٪) في الولايات المتحدة. هذا التباين يعرض العديد من LMICs [low- and middle-income countries] وقال “لمخاطر التبعية ويمكن أن تؤدي إلى تفاقم أوجه عدم المساواة الحالية” ، مضيفًا أن تكاليف التطوير من المقرر أن ترتفع فقط ، مما يؤدي إلى تفاقم هذه الفجوة.
سلط التقرير أيضًا الضوء على الاتجاه الصاعد لـ “عمل الأشباح” ، والذي يشير إلى في الغالب العمل الخفي الذي يؤديه العمال -في كثير من الأحيان في ظروف محفوفة بالمخاطر في البلدان ذات الدخل المنخفض-لدعم تنمية نماذج الذكاء الاصطناعي. وأضاف أنه على الرغم من أن هذا العمل يمكن أن يوفر للأشخاص فرصًا اقتصادية ، فإن “الطبيعة على غرار هذا العمل غالبًا ما توفر فوائد قليلة وحماية العمال واستقرار الوظائف الأقل ، حيث تدور المنصات الأسواق لإيجاد عمل أرخص”.
فيما يتعلق بكل هذا هو “درجة عالية” من تركيز السوق حول الذكاء الاصطناعي ، والذي يسمح لحفنة صغيرة من الشركات القوية بالسيطرة على اتخاذ القرارات حول تطوير واستخدام التكنولوجيا.
على التأثير البيئي، تم الإشارة إلى التقرير في حين أن مشغلي مركز البيانات يتحولون بشكل متزايد إلى مصادر الطاقة المتجددة ، فإن جزءًا كبيرًا من تدريب الذكاء الاصطناعى لا يزال يعتمد على مصادر الطاقة عالية الكربون مثل الفحم أو الغاز الطبيعي ، ويستخدم كميات كبيرة من المياه أيضًا.
وأضاف أن تحسينات الكفاءة في الأجهزة المتعلقة بالنيابة وحدها “لم تنفي النمو الكلي في استخدام الطاقة من الذكاء الاصطناعي وربما تزيد من تسريعها بسبب” آثار الانتعاش “، لكن” الأرقام الحالية تعتمد إلى حد كبير على التقديرات ، التي تصبح أكثر متغير وغير موثوق به عند استقراءه في المستقبل بسبب الوتيرة السريعة للتطور في هذا المجال “.
مخاطر من العطل
مع تسليط الضوء على “الأضرار الملموسة” التي يمكن أن تسببها الذكاء الاصطناعى نتيجة لقدرتها على تضخيم التحيزات السياسية والاجتماعية الحالية ، قال التقرير إنه “يمكن أن يؤدي إلى نتائج تمييزية بما في ذلك تخصيص الموارد غير المتكافئ ، وتعزيز الصور النمطية ، والإهمال المنهجي لمجموعات معينة أو وجهات النظر “.
لاحظ على وجه التحديد كيفية تدريب معظم أنظمة الذكاء الاصطناعى على مجموعات بيانات اللغة والصور التي تمثل الثقافات الناطقة باللغة الإنجليزية بشكل غير متناسب، أن العديد من خيارات التصميم تتماشى مع وجهات نظر معينة على حساب الآخرين ، وأن تقنيات تخفيف التحيز الحالية غير موثوق بها.
“نهج كلي وتشاركي ويشمل ذلك مجموعة متنوعة من وجهات النظر وأصحاب المصلحة أمر ضروري للتخفيف من التحيز.
مرددًا لنتائج التقرير المؤقت حول الخسارة البشرية للسيطرة على أنظمة الذكاء الاصطناعي-والتي يشعر البعض بالقلق يمكن أن تسبب حدثًا على مستوى الانقراض-أقر التقرير بمثل هذه المخاوف ولكنه أشار إلى أن الرأي يختلف اختلافًا كبيرًا.
وقالت: “يعتبر البعض أنه غير معقول ، ويعتبر البعض أنه من المحتمل أن يحدث ، وبعضهم يرى أنه يمثل خطرًا متواضعًا على ذلك يستدعي الانتباه بسبب شدته العالية”. “أكثر من الناحية الأساسية ، قد تحدد الضغوط التنافسية جزئيًا خطر فقدان السيطرة … [because] يمكن للمنافسة بين الشركات أو بين البلدان أن تقودهم إلى قبول مخاطر أكبر للبقاء في المقدمة. “
مخاطر الاستخدام الخبيث
فيما يتعلق باستخدام الذكاء الاصطناعي الضار ، أبرز التقرير القضايا حول الأمن السيبراني ، والعرق ، واستخدامه في تطوير الأسلحة البيولوجية أو الكيميائية.
في Deepfakes ، لاحظت الآثار الضارة بشكل خاص على الأطفال والنساء ، الذين يواجهون تهديدات مميزة بالاعتداء الجنسي والعنف.
وقالت “طرق الكشف الحالية وتقنيات العلامات المائية ، مع التقدم ، تظهر نتائج مختلطة ووجه التحديات التقنية المستمرة”. “هذا يعني أنه لا يوجد حاليًا حلًا قويًا لاكتشاف وتقليل انتشار المحتوى الضار الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. أخيرًا ، غالبًا ما يفوق التقدم السريع لتكنولوجيا الذكاء الاصطناعى طرق الكشف ، مما يبرز القيود المحتملة للاعتماد فقط على التدخلات التقنية والتفاعلية. “
فيما يتعلق بالأمن السيبراني ، لاحظت أن أنظمة الذكاء الاصطناعى أظهرت تقدمًا كبيرًا في تحديد واستغلال الثغرات الإلكترونية بشكل مستقل ، فإن هذه المخاطر ، من حيث المبدأ ، يمكن التحكم فيها ، حيث يمكن أيضًا استخدام الذكاء الاصطناعي بشكل دفاعي.
وقالت: “التقدم السريع في القدرات يجعل من الصعب استبعاد المخاطر الواسعة النطاق على المدى القريب ، وبالتالي تسليط الضوء على الحاجة إلى تقييم هذه المخاطر ومراقبتها”. “هناك حاجة إلى مقاييس أفضل لفهم سيناريوهات الهجوم في العالم الحقيقي ، وخاصة عندما يعمل البشر و AIS معًا. يتمثل التحدي الحاسم في تخفيف القدرات الهجومية دون المساس بتطبيقات دفاعية. “
وأضاف أنه على الرغم من أن نماذج الذكاء الاصطناعى الجديدة يمكنها إنشاء أدلة خطوة بخطوة لإنشاء مسببات الأمراض والسموم التي تتجاوز الخبرة على مستوى الدكتوراه ، مما قد يساهم في خفض الحواجز التي تحول دون تطوير الأسلحة البيولوجية أو الكيميائية ، بمعنى أن “الفائدة العملية للمبتدئين لا تزال غير مؤكدة”.