أخبار التقنية

انقسم اللوردات حول نهج حكومة المملكة المتحدة تجاه الأسلحة المستقلة


ينقسم اللوردات في آرائهم حول النهج الذي تتبعه حكومة المملكة المتحدة تجاه الأسلحة ذاتية التشغيل، حيث يدعو البعض إلى درجة أكبر من الحذر ويدعو آخرون إلى قدر أقل من ضبط النفس للتقدم على الخصوم.

في بداية ديسمبر 2023، أ لجنة اللوردات حث حكومة المملكة المتحدة على “المضي قدمًا بحذر” عند نشر أنظمة الأسلحة المستقلة (AWS) وغيرها من القدرات العسكرية التي تدعم الذكاء الاصطناعي (AI)، بعد أن وجدت أن وعد الحكومة بالتعامل مع الذكاء الاصطناعي العسكري بطريقة “طموحة وآمنة ومسؤولة” لم يرق إلى مستوى الواقع.

وتضمنت التوصيات الرئيسية للجنة الذكاء الاصطناعي في أنظمة الأسلحة ضمان الحكومة السيطرة البشرية في جميع مراحل دورة حياة AWS؛ اعتماد تعريف تشغيلي غير تقني لـ AWS حتى يمكن اتخاذ قرارات سياسية ذات معنى؛ وتصميم عمليات الشراء بشكل مناسب لعالم يعتمد على الذكاء الاصطناعي حتى تكون هناك مساءلة مناسبة. كما أوصت بحظر كامل للذكاء الاصطناعي في القيادة والسيطرة النووية.

الرد على ما توصلت إليه تلك اللجنة في أواخر مارس 2024أصرت الحكومة على أنها تتصرف بالفعل بمسؤولية مع توخي الحذر الواجب، وأن وزارة الدفاع الأولوية مع الذكاء الاصطناعي هي تعظيم القدرة العسكرية في مواجهة الخصوم المحتملين، الذين زعمت أنه “من غير المرجح أن يكونوا مسؤولين”.

وأضافت الحكومة أنه على الرغم من ترحيبها بـ “التحليل الشامل والمثير للتفكير”، إلا أن الرسالة الشاملة للجنة والتي مفادها أنها يجب أن تتصرف بحذر “تعكس بالفعل نهج وزارة الدفاع تجاه اعتماد الذكاء الاصطناعي”.

خلال مناظرة بناءً على نتائج اللجنة ورد الحكومة الذي عقد في 19 أبريل 2024، أعرب اللوردات عن آراء متضاربة حول نهج المملكة المتحدة تجاه الأسلحة المستقلة. وبينما انتقد البعض الحكومة لإحجامها عن وضع قيود على استخدام خدمات أمازون ويب (AWS)، على سبيل المثال، قال آخرون إن الحذر غير المبرر من شأنه أن يعيق التقدم ويضع المملكة المتحدة خلف خصومها الجيوسياسيين.

ومع ذلك، تؤكد الحكومة أن استخدام الأسلحة المستقلة يخضع بالفعل للقانون الإنساني الدولي، لذلك ليست هناك حاجة لوضع تعريف عملي أو الالتزام بأي صكوك قانونية دولية تتحكم في استخدامها.

اللائحة “هدية لأعدائنا”

وفي توضيح لموقف الحكومة خلال مناقشة اللوردات، قال وزير الدولة للدفاع، إيرل مينتو، إن وضع تعريف تشغيلي لـ AWS أو إنشاء أدوات دولية جديدة للتحكم في استخدامها لن يفيد إلا أعداء المملكة المتحدة.

“إن هذه الأنظمة تخضع بالفعل للقانون الإنساني الدولي، لذا، لسوء الحظ، فإن تعريفها لن يعزز استخدامها القانوني. في الواقع، من المتوقع، في المفاوضات الدولية، أن أولئك الذين يتجاهلون القانون الدولي والأعراف الدولية عمدًا يمكن أن يستخدموا تعريفًا لتقييد القدرات والأبحاث المشروعة للدول المسؤولة.

“ولهذا السبب أيضًا، وبعد دراسة صادقة وعميقة، فإننا لا نؤيد دعوة اللجنة للتوصل إلى اتفاق سريع على صك دولي فعال بشأن أنظمة الأسلحة الفتاكة المستقلة – والتي ستكون بمثابة هدية لخصومنا”.

وأضاف مينتو أنه بدلاً من الاعتماد على تعريف أو وثيقة، فإن الضمانة الرئيسية للذكاء الاصطناعي العسكري هي ضمان المشاركة البشرية طوال دورة حياة نظام معين. وتماشيًا مع هذا، أوضح أيضًا أن الحكومة ليس لديها أي نية لإنشاء أسلحة ذاتية التشغيل بالكامل أو التنازل عن “السيطرة السياسية” على القدرات النووية للمملكة المتحدة لصالح الذكاء الاصطناعي.

وقال: “ستتمتع وزارة الدفاع البريطانية دائمًا بمشاركة بشرية مناسبة للسياق، وبالتالي سيطرة بشرية ذات معنى ومسؤولية ومساءلة”. “لكننا نعلم أن الدول الأخرى لم تقدم التزامات مماثلة وقد تسعى إلى استخدام هذه التقنيات الجديدة بشكل غير مسؤول.”

على هذا النحو، أضاف كذلك أن المملكة المتحدة ستكون كذلك العمل مع الحلفاء لوضع معايير للذكاء الاصطناعي العسكري المسؤول – والذي يقول إنه سيرتكز على القانون الدولي الإنساني – مع العمل أيضًا على تحديد وعزو الاستخدامات العسكرية الخطيرة للتكنولوجيا للمساعدة في محاسبة “الأطراف غير المسؤولة”.

على الرغم من عدم وجود دعم في الحكومة لتعريف أو صك قانوني، قال مينتو إن المملكة المتحدة ستواصل المشاركة في الحوارات الدولية حول تنظيم الأسلحة المستقلة، وخاصة فريق الخبراء الحكوميين التابع للأمم المتحدة الذي يعمل في نطاق الاتفاقية. بشأن أسلحة تقليدية معينة.

رد فعل اللوردات

وخلال المناقشة، أعرب اللوردات عن آراء متباينة تجاه موقف الحكومة وردها على اللجنة.

على سبيل المثال، قال رئيس اللجنة اللورد ليزفان إن هدف الحكومة المتمثل في إنشاء ذكاء اصطناعي عسكري “طموح وآمن ومسؤول” يجب الآن ترجمته إلى تنفيذ عملي، وانتقد بشكل خاص قرار عدم اعتماد تعريف تشغيلي لـ AWS.

“أسمع ما تقوله الحكومة، لكنني غير مقتنع. أعتقد أنه من الممكن وضع تعريف مثبت للمستقبل”. “إن القيام بذلك من شأنه أن يساعد قدرة المملكة المتحدة على وضع سياسة هادفة بشأن الأسلحة المستقلة والمشاركة بشكل كامل في المناقشات في المنتديات الدولية. وهذا من شأنه أن يجعلنا لاعبًا أكثر فعالية وتأثيرًا”.

وقال أيضًا إنه ينبغي للحكومة أن تكون قدوة في المناقشات الدولية حول تنظيم خدمات AWS، مشيرًا إلى أنه سواء كانت النتيجة معاهدة ملزمة قانونًا أو تدابير غير رسمية توضح كيفية تطبيق القانون الدولي الإنساني، فإن الاتفاق على “صك دولي فعال يجب أن يكون بمثابة حل” ذا أهيمة عليا”.

وأضاف ليسفان أنه في حين قبلت الحكومة عددًا من توصيات اللجنة – بما في ذلك ما يتعلق بأهمية المساءلة البرلمانية، والسيطرة البشرية على القيادة النووية، وتحسين ممارسات الشراء في وزارة الدفاع فيما يتعلق بالبرمجيات والبيانات – فإن ردها لا يقدم سوى القليل من التفاصيل حول كيفية تنفيذ هذه النقاط. وسوف يتحقق.

“بشكل عام، كان رد الحكومة على تقريرنا “ذو نوايا بناءة”. وقال: “آمل ألا يبدو ذلك مؤلما للغاية”. “لقد أدركوا بوضوح دور الذكاء الاصطناعي المسؤول في قدرتنا الدفاعية المستقبلية، ولكن يجب عليهم تضمين المبادئ الأخلاقية والقانونية في جميع مراحل التصميم والتطوير والنشر. يجب استخدام التكنولوجيا عندما تكون مفيدة، ولكن ليس بتكلفة غير مقبولة للمبادئ الأخلاقية في المملكة المتحدة.

وأضاف اللورد كليمنت جونز، الذي جلس في اللجنة بعد أن دفع من أجل إنشائها، بالمثل أنه على الرغم من الإجماع شبه العالمي على الحاجة إلى تنظيم AWS، فإن حكومة المملكة المتحدة لم تصادق رسميًا بعد على أي قيود على استخدامها بما يتجاوز سلسلة من القيود التزامات غامضة حول الرقابة البشرية والخطوط الحمراء الأخلاقية.

تسليط الضوء على استخدام أنظمة الذكاء الاصطناعي لتحديد الأهداف في غزة، فضلا عن استخدام طائرات بدون طيار ذاتية الحكم وفي ليبيا وسوريا وأوكرانيا، قال كليمنت جونز إن هذا يظهر مدى إلحاح الحاجة إلى تنظيم AWS، والذي أضاف أنه يجب أن يبدأ بتعريف عملي على الأقل.

“إن عدم الاتساق في كيفية تعريفنا وفهمنا لـ AWS له آثار كبيرة على تطوير هذه التقنيات وإدارتها. ومع ذلك، فقد أثبتت اللجنة أنه من الممكن وضع تعريف عملي، يميز بين الأنظمة المستقلة كليًا وجزئيًا. ومن الواضح أن الحكومة لا تزال تقاوم هذا الأمر، كما أظهر رد فعلها”.

وقال اللورد براون، الذي كان عضوًا أيضًا في اللجنة، إن تفسير الحكومة حول سبب عدم ضرورة تعريف AWS “من الواضح أنه غير كافٍ”، مضيفًا: “كيف يمكننا أن نسعى بنشاط للمشاركة في السياسة في تنظيم AWS إذا لم نتمكن من العثور حتى على كلمات مؤقتة”. التي لتحديد ذلك؟ إن الأمر أشبه بمحاولة صنع بدلة لرجل أحيطت قياساته بالسرية، ووجوده مجرد إشاعة».

وأضاف أنه على الرغم من أن هذا موضوع معقد، إلا أن “التعقيد لا ينبغي أن يكون ملجأ بل توبيخاً” في عملية صنع السياسات الجيدة. “إن مهمة الحكومات من أي تيار سياسي هي أن تكون قادرة على توضيح نهجها واختباره من قبل الخبراء والأصوات المعارضة.”

ومع ذلك، كان اللوردات الآخرون أقل انتقادًا لموقف الحكومة وجادلوا بدلاً من ذلك بضرورة تقليل الحذر والسلبية بشأن العواقب المحتملة للذكاء الاصطناعي العسكري.

قال اللورد هوتون، الذي جلس في اللجنة لكنه أكد أنه كان يتحدث بصفته الشخصية أثناء المناقشة، على سبيل المثال، في حين أن متطلبات أي تنظيم “سوف تقيدنا بلا شك بطرق لن تزعج العديد من أعدائنا المحتملين”، إن المزايا الإستراتيجية التي يمكن استخلاصها من AWS كبيرة جدًا لدرجة أننا “سنكون مجانين إذا لم نستمر في طرق استغلالها”.

كما دعا الحكومة إلى تطميناتها بأنها “لن تسمح بالحذر غير المبرر لعرقلة التقدم” واستهدف السلبية التي تم التعبير عنها تجاه مخاطر الذكاء الاصطناعي العسكري، وAWS على وجه الخصوص، أثناء تحقيق اللجنة.

“لم تكن السلبية بين أعضاء اللجنة بل بين العديد من شهودنا الخبراء، وكان بعضهم من دعاة الهلاك التقنيين، في حين بدا أن آخرين يكسبون رزقهم من خلال تحويل ما هو في نهاية المطاف مشكلة عملية لإدارة ساحة المعركة إلى تحدي أخلاقي للحرب”. قال: “التعقيد الغوردي”.

التحدث عن الذكاء الاصطناعي في سياق البحرية، جادل اللورد ستيفنز بأنه ستكون هناك حاجة للأنظمة التي تدعم الذكاء الاصطناعي كمضاعف فعال للقوة، وأن هناك حاجة إلى الحذر لضمان عدم تقييد تنظيم AWS بشكل مفرط.

وقال: “سيرتكب البرلمان خطأً في الفئة إذا حاولنا تنظيم الذكاء الاصطناعي كفئة منفصلة من أنظمة الأسلحة، في حين أنه في الواقع عبارة عن مجموعة من التقنيات ذات الأغراض العامة سريعة التطور”.

“من الواضح أن أنظمة الذكاء الاصطناعي توفر فوائد محتملة هائلة في البيئة البحرية. يمكن للبرلمان، بل وينبغي له، أن يساعد أمتنا على الاستفادة منها… يجب أن تكون الإشارة التي يجب أن نرسلها إلى البحرية الملكية هي: مواصلة المضي قدمًا بسرعة.

وبالمثل، أشار اللورد هاميلتون إلى أن المملكة المتحدة ستترك “في وضع غير مؤاتٍ للغاية إذا تبنى أعداؤنا الذكاء الاصطناعي بحماس، ونحن لا نفعل ذلك”.

وأضاف أنه “من المهم للغاية” أن تتبنى القوات المسلحة البريطانية الذكاء الاصطناعي، بحيث يمكن استخدامه “لإنقاذ حياة قواتنا وتحسين فرصنا في الفوز بالحروب”.



Source link

زر الذهاب إلى الأعلى