أخبار التقنية

لجنة اللوردات تحث على توخي الحذر بشأن استخدام المملكة المتحدة للأسلحة ذاتية التشغيل


قالت لجنة بمجلس اللوردات إن حكومة المملكة المتحدة يجب أن “تتوخى الحذر” عند تطوير ونشر الذكاء الاصطناعي (AI) للأغراض العسكرية، وخاصة أنظمة الأسلحة المستقلة (AWS).

AWS، والمعروفة أيضًا باسم أنظمة الأسلحة الفتاكة المستقلة (LAWS)، هي أنظمة أسلحة يمكنها اختيار الأهداف وكشفها والاشتباك معها مع تدخل بشري ضئيل أو معدوم.

تأسست لجنة اللوردات للذكاء الاصطناعي في أنظمة الأسلحة في 31 يناير 2023 استكشف أخلاقيات تطوير ونشر مثل هذه الأسلحة، بما في ذلك كيفية استخدامها بشكل آمن وموثوق، وإمكانية تصعيد الصراع، وامتثالها للقوانين الدولية.

في 1 ديسمبر تقرير وقالت اللجنة في تفاصيل النتائج التي توصلت إليها إنه بينما وعدت الحكومة في تقريرها استراتيجية الدفاع 2022 للتعامل مع الذكاء الاصطناعي العسكري بطريقة “طموحة وآمنة ومسؤولة”، فإن هذه التطلعات لم ترقى إلى مستوى الواقع، ويجب ترجمتها إلى ممارسة.

وقالت: “إن مناقشة الأسلحة المستقلة، وإلى حد كبير الذكاء الاصطناعي بشكل عام، يشوبها السعي وراء أجندات ونقص التفاهم”. “أحد أهدافنا هو توفير أساس واقعي للنقاش البناء، والصراحة والشفافية من جانب الحكومة ستدعم هذه العملية.”

وقالت اللجنة إنه من المهم أن تسعى الحكومة إلى إنشاء واستبقاء ثقة الجمهور والتأييد الديمقراطي في تطوير واستخدام الذكاء الاصطناعي بشكل عام، وخاصة فيما يتعلق بـ AWS.

ولتحقيق ذلك، قدمت اللجنة عددًا من التوصيات حول كيفية قيام الحكومة بزيادة فهم الجمهور وثقته حول تطبيقات الذكاء الاصطناعي العسكري، بالإضافة إلى تعزيز دور البرلمان في اتخاذ القرار في هذا المجال.

الحظر النووي

في حين أن معظم التقرير ركز على تحسين الرقابة على الذكاء الاصطناعي العسكري، فقد دعا أيضًا إلى فرض حظر محدد على استخدام التكنولوجيا في القيادة والسيطرة والاتصالات النووية بسبب مخاطر القرصنة وبيانات التدريب “المسمومة” والتصعيد – سواء كان ذلك تكون مقصودة أو عرضية – خلال لحظات الأزمة.

“لقد انتشر الذكاء الاصطناعي في العديد من مجالات الحياة، والدفاع ليس استثناءً. وقال اللورد ليزفان، رئيس اللجنة: “كيف يمكن أن يحدث ثورة في تكنولوجيا الدفاع هو أحد أكثر استخدامات الذكاء الاصطناعي إثارة للجدل اليوم”، مضيفًا أنه في حين أن اعتراف الحكومة بالحاجة إلى الذكاء الاصطناعي المسؤول في قدراتها الدفاعية المستقبلية أمر مرحب به، إلا أن هناك عددًا من الخطوات يجب اتخاذها لضمان اتخاذ الحذر المناسب.

وتابع: “يجب أن تتضمن المبادئ الأخلاقية والقانونية في جميع مراحل التصميم والتطوير والنشر، مع تحقيق الفهم العام والتأييد الديمقراطي”. “يجب استخدام التكنولوجيا عندما تكون مفيدة، ولكن ليس بتكلفة غير مقبولة للمبادئ الأخلاقية في المملكة المتحدة.”

وتشمل التوصيات الرئيسية للجنة ضمان الحكومة السيطرة البشرية في جميع مراحل دورة حياة AWS؛ اعتماد تعريف تشغيلي غير تقني لـ AWS حتى يمكن اتخاذ قرارات سياسية ذات معنى؛ وتصميم عمليات الشراء بشكل مناسب لعالم يعتمد على الذكاء الاصطناعي حتى تكون هناك مساءلة مناسبة.

وفيما يتعلق بثقة الجمهور ووعيه، قالت اللجنة إنها “تشعر بخيبة أمل” لأن وزارة الدفاع لا تعمل حاليًا على فهم المواقف العامة تجاه AWS، مضيفة أنه يجب استشارة الجمهور بشكل صحيح: “يجب عليها أيضًا ضمان الأخلاقيات”. تقع في قلب سياستها، بما في ذلك توسيع دور اللجنة الاستشارية لأخلاقيات الذكاء الاصطناعي التابعة لوزارة الدفاع.

وفيما يتعلق بتحسين التدقيق حول قدرات AWS في المملكة المتحدة، قالت إن قدرة البرلمان على الرقابة تعتمد على توافر المعلومات، وعلى قدرته على توقع المشكلات بدلاً من الرد بعد الحدث، وعلى قدرته على مساءلة الوزراء.

وقالت: “يجب على الحكومة إتاحة مساحة كافية في الجدول الزمني البرلماني وتوفير معلومات كافية للبرلمان، بما في ذلك لجانه المختارة، لتدقيق سياستها بشأن الذكاء الاصطناعي بشكل فعال”. “نحن ندرك بطبيعة الحال أن عناصر تطوير السياسات قد تكون حساسة للغاية، ولكن هناك طرق راسخة للتعامل مع مثل هذه المعلومات. ولا ينبغي استخدام حجج السرية للتهرب من المساءلة.

كما حثت اللجنة الحكومة على أن تكون قدوة في المشاركة الدولية في مجال الذكاء الاصطناعي العسكري وخدمات AWS.

“كانت قمة سلامة الذكاء الاصطناعي مبادرة مرحب بها، لكنها لم تشمل الدفاع. يجب على الحكومة أن تدرج الذكاء الاصطناعي في AWS في رغبتها المعلنة في “العمل معًا بطريقة شاملة لضمان أن يكون الذكاء الاصطناعي الذي يركز على الإنسان وجدير بالثقة والمسؤول آمنًا” ودعم “صالح الجميع من خلال المحافل الدولية القائمة والمبادرات الأخرى ذات الصلة”. “، في إشارة إلى إعلان بلتشلي الذي وقعته 28 دولة خلال القمة.

“لقد كان المجتمع الدولي يناقش تنظيم AWS لعدة سنوات. يمكن أن تكون نتائج هذه المناقشة عبارة عن معاهدة ملزمة قانونًا أو تدابير غير ملزمة توضح تطبيق القانون الدولي الإنساني – ولكل نهج أنصاره. وعلى الرغم من الاختلافات حول الشكل، فإن الهدف الرئيسي هو تسريع الجهود الرامية إلى التوصل إلى صك دولي فعال.

وردا على التقرير قال بيتر بيرت من منظمة غير حكومية حروب الطائرات بدون طيار في المملكة المتحدة، الذي أعطى شهادة وقال أمام اللجنة في أبريل 2023: “لقد اعترفت لجنة اللوردات بأن أنظمة الأسلحة المستقلة – “الروبوتات القاتلة” – هي واحدة من أكثر استخدامات الذكاء الاصطناعي إثارة للجدل اليوم، وذكرت بشكل لا لبس فيه أن هذه الأنظمة يجب أن تظل تحت السيطرة البشرية في جميع المراحل”. من دورة حياتهم”.

وقال: “لسوء الحظ، تتسابق حكومة المملكة المتحدة لتطوير أسلحة ذاتية التحكم بغض النظر عن المخاطر التي تشكلها”. “إن النظر في المخاطر والأضرار الأخلاقية الناجمة عن الأسلحة المستقلة قد تأخر كثيرًا عن الأبحاث المتعلقة بالأسلحة نفسها.”

وأضاف بيرت أن الكثير مما قالته حكومة المملكة المتحدة علنًا بشأن مسألة خدمات أمازون لخدمات الإنترنت “لم يكن أكثر من مجرد تجميل”، وأنها كانت “تشير إلى أن القمة الدولية رفيعة المستوى لسلامة الذكاء الاصطناعي التي نظمتها الحكومة استبعدت صراحة مناقشة التطبيقات العسكرية”. الذكاء الاصطناعي – الاستخدامات المحتملة الأكثر ضررًا التي يمكن تخيلها”.

الضوابط الدولية

وقال بيرت إن الهدف الرئيسي الآن، كما خلص اللوردات، هو تسريع الجهود الرامية إلى إنشاء “أداة دولية فعالة” للسيطرة على الاستخدامات العسكرية للذكاء الاصطناعي. وقال: “إذا كان لـ “بريطانيا العالمية” أي معنى، فيجب على حكومة المملكة المتحدة الآن أن تلقي بثقلها وراء الحركة المتنامية لحظر أنظمة الأسلحة المستقلة بالكامل”.

حملة المملكة المتحدة لوقف الروبوتات القاتلة بالمثل قال وإذا كان التزامها بأن تكون في طليعة تنظيم التكنولوجيا العالمية جديا، “فيتعين على الحكومة أن تستجيب للدعوات العاجلة لحظر وتنظيم أنظمة الأسلحة المستقلة ــ ودعم تطوير معاهدة دولية”.

في تقرير حول “التقنيات العسكرية الناشئة” التي نشرتها خدمة أبحاث الكونجرس في نوفمبر 2022، أشار المحللون إلى أن ما يقرب من 30 دولة و165 منظمة غير حكومية دعت إلى فرض حظر وقائي على استخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل بسبب المخاوف الأخلاقية المحيطة بها. استخدامها، بما في ذلك احتمال عدم المساءلة وعدم القدرة على الامتثال للقوانين الدولية المتعلقة بالنزاع.

في أوائل نوفمبر 2023، هيئة نزع السلاح التابعة للأمم المتحدة الموافقة على مشروع قرار بشأن الآثار السلبية لأنظمة الأسلحة التي تعمل بالذكاء الاصطناعيقائلة إن هناك “حاجة ملحة” لاتخاذ إجراء دولي لمعالجة التحديات والمخاوف التي تطرحها.

طلب القرار على وجه التحديد من الأمين العام للأمم المتحدة أنطونيو غوتيريش التماس آراء الدول الأعضاء بشأن AWS – بالإضافة إلى وجهات نظرهم حول “طرق معالجة التحديات والمخاوف ذات الصلة التي تثيرها من وجهات النظر الإنسانية والقانونية والأمنية والتكنولوجية والأخلاقية، وما يتعلق بها”. دور البشر في استخدام القوة» – ونشرها في «تقرير موضوعي» يعكس النطاق الكامل لوجهات النظر المقدمة.

وينص القرار أيضًا على أن اللجنة الأولى ستدرج جلسة حول أنظمة الأسلحة الفتاكة ذاتية التشغيل في جدول أعمالها للدورة القادمة، بدءًا من عام 2024. وكمشروع قرار، فهو معروض حاليًا على الجمعية العامة للنظر فيه واتخاذ إجراء بشأنه.

ومن المتوقع أن ترد حكومة المملكة المتحدة على تقرير اللجنة بعد فترة وجيزة في يناير 2024.



Source link

زر الذهاب إلى الأعلى